AIスタートアップ企業Nexa.aiは、同社のローカルAIエージェントツール「Hyperlink」がNVIDIA RTX AI PC向けに正式に最適化されたことを発表しました。GeForce RTX GPUの強力なコンピューティング能力を活用することで、この新しいアプリケーションは、検索拡張(RAG)インデックス作成において3倍、LLM推論において2倍の高速化を実現し、ユーザー定義のローカルコンテキストが欠如している従来の大規模言語モデルの課題に対処します。
「AI がコンピュータを理解しない」という問題点に対処するために、キーワードではなく意味理解を採用しています。
現在のAIチャットボットは強力ですが、ユーザーのコンピュータ上のPDF、PPT、メモ、画像などに隠された情報にアクセスできないため、回答の具体性が欠けることがよくあります。しかし、Hyperlinkはローカルファイルインデックスを作成するように設計されており、従来のキーワード比較だけに頼るのではなく、AIがユーザーの意図やクエリのコンテキストを理解できるようにします。
たとえば、ユーザーが「2 つの SF 小説のテーマを比較する読書感想文」の作成支援をリクエストした場合、コンテンツのファイル名が「Lit_Homework_Final.docx」のようにまったく関係がない場合でも、Hyperlink は意味分析を通じて関連情報を正確に見つけることができます。
RTX 5090 を搭載し、1GB のデータのインデックス作成にはわずか 5 分しかかかりません。
パフォーマンスの向上に関して、Nexa.ai は、NVIDIA RTX 5090 グラフィック カードで実施したベンチマーク テストで、以前は 1GB の高密度フォルダーのインデックス作成に約 15 分かかっていたが、RTX AI PC 最適化後は Hyperlink でインデックス作成が完了するまでに 4 ~ 5 分しかかからないことを示したと述べています。
つまり、ユーザーはローカルデータを AI が取得できるリアルタイム情報に迅速に変換できるようになり、LLM の推論速度が向上することで、質問と回答の応答がさらに迅速になります。
すべてのデータは、ビジネス、学術、開発のシナリオを対象としてオンプレミスで処理されます。
プライバシーとセキュリティは、Hyperlinkのもう一つの大きなセールスポイントです。同社は、すべてのユーザーデータがローカルデバイスに保存されるため、個人ファイルをクラウドにアップロードする必要がなく、機密情報の漏洩を防ぐことができることを強調しています。
Hyperlink は現在、次のような幅広いアプリケーション シナリオを特定しています。
• 会議の準備: メモと逐語的記録から重要なポイントをまとめます。
• レポート分析: 業界レポートのデータを引用して、証拠に基づいた回答を提供します。
• 効率的な学習: 講義ノートや教材の要点をワンクリックで検索できます。
• デバッグを高速化: ファイルとコード注釈を検索して、バージョンの競合を見つけます。
Hyperlink アプリケーションは本日よりダウンロード可能となり、NVIDIA RTX グラフィックス カードをお持ちのユーザーは最適化された AI 検索エクスペリエンスをお楽しみいただけます。




