Appleは2026年にAI機能を強化したSiriの新バージョンをリリースする予定で、それを支える主要な技術パートナーについてもより明確なニュースがあるようだ。ブルームバーグニュースによるとAppleは新しいSiriのコア機能を動かすためにGoogle Geminiモデルのカスタマイズ版を使用し、これに対してGoogleに年間最大10億ドルのライセンス料を支払うことになる。
Gemini は、中核となる「要約」および「計画」機能を担当し、Apple のプライベート クラウド上で実行されます。
報道によると、新バージョンの Siri は Apple 独自のデバイス内モデルの一部を引き続き使用するものの、「Siri の要約機能とプランナー機能の処理」には同社のプライベートクラウド コンピューティング サーバー上で実行される Gemini モデルに大きく依存することになるという。
これら2つの機能は新しいSiriにとって極めて重要であり、「情報を収集」し、「複雑なタスクの実行方法を決定する」のに役立ちます。AppleのAIビジョンの中核は、Siriがユーザーに代わってアプリを操作できるようにすることです。そのため、Geminiは重要な中心的な役割を果たすことになります。
年間10億ドルを支払っていると報じられており、将来的には独自の代替手段を開発する計画もある。
報道によれば、Appleはこれに年間10億ドルを支払うことになるというが、この金額は、Appleのデバイスに自社の検索エンジンがプリインストールされるようにするためにGoogleが毎年支払っている莫大な金額に比べればまだ「ほんの一部」だ。
Googleの技術を使用しているにもかかわらず、この提携は公表される可能性は低い。Appleは、最終的にはGoogleの技術を自社製のカスタム設計モデルに置き換える計画だ。
報道によると、Appleは「1兆個のパラメータ」を備えたクラウドインフラモデルを積極的に開発しており、早ければ2026年には消費者が利用できるようにしたいと考えているという。
「オプション」から「コア」へ:Siriの遅延が主な原因か
このコラボレーションの進化を振り返ると、Apple Intelligence により、Siri は特定のリクエストに応じて OpenAI の ChatGPT を呼び出すことができるようになりました。
Google Geminiは、2024年3月にAppleのIntelligenceサービスへの新たなAI「オプション」として追加されるという噂が初めて流れた。
しかし、Appleが2025年に新機能Siriのリリースを1年延期すると発表したことで、外部技術の必要性は明らかに高まった。今年8月には、SiriがGeminiで「サポートされる」可能性があるというニュースが市場に広まり、当時GoogleはAppleのサーバー上で安全に動作可能なカスタマイズ版の開発を依頼された。
これに先立ち、AppleはAnthropicやOpenAIとも同様の緊密な協力について話し合っていたと報じられている。



