今回の発表は、人工知能の「思考」の創造を加速することに焦点を当てており、これまでで最高の成果です。第7世代TPU「アイアンウッド」Google Cloudの副社長兼人工知能およびコンピューティングインフラストラクチャのゼネラルマネージャーであるマーク・ローメイヤー氏はインタビューで、現在のクラウドインフラストラクチャは人工知能技術のアプリケーションニーズに合わせて調整されるものの、さまざまな市場ニーズに合わせて適切なインフラストラクチャを提供していくと述べた。

人工知能の需要はクラウドインフラを完全に変えることはない
マーク・ローメイヤー氏は、第7世代TPU「Ironwood」設計は確かに人工知能コンピューティングのニーズを満たすために追加されたものであり、その演算能力は42.5エクサフロップスと世界最大のスーパーコンピュータ「El Capitan」の約24倍、データ転送帯域幅は7.2Tbpsと前世代「Trillium」の4.5倍と謳われているものの、より多くのクラウドアプリケーションのニーズを満たすために、以前から提供されているTPUハードウェアアーキテクチャも維持されていると指摘しました。同時に、コンピューティングチップに関してはIntel、AMD、NVIDIAと提携しており、今回、NVIDIAの次期CPU(コードネーム「Vera」)と次世代GPU(コードネーム「Rubin」)を入手することも発表しました。

現在のインフラの多くはAIコンピューティング向けに整備されているものの、マーク・ローマイヤー氏は、Google Cloudはアプリケーションの多様性を維持し、ハードウェアインフラから独自のTPUアクセラレーションコンピューティングデバイスを提供すること、さらにはArmアーキテクチャに基づく「Axion」CPUを選択したり、ニーズに応じて他のパートナーサプライヤーのコンピューティングチップを選択したりするなど、ユーザーにより多くの選択肢を提供していることを強調しました。Vertex AIプラットフォームは、Googleが提供するGemini AIモデルやアプリケーションツールに加え、多くのオープンソースAIモデルリソースも統合しています。
これにより、ユーザーはGoogle Cloud Platform上でより柔軟にアプリケーションサービスを構築できるようになり、アプリケーションの導入オプションもより柔軟に選択できるようになります。Google自身もよりオープンな姿勢を維持しており、ユーザーが自社のサービスを他のクラウド Platformで構築されたサービスとより容易に連携できるようにすることで、ユーザーはより安心してGoogle Cloud Platform上で様々なアプリケーションサービスを構築できるようになります。
そのため、マーク・ローマイヤー氏は、従来のインフラストラクチャ設計モデルと比較して、実際には大きな違いはないと考えています。主な目的は、TPUなどのアクセラレーションハードウェアの追加や、人工知能のトレーニングに必要なデータストレージに対応したソリューションの提供など、人工知能コンピューティングアプリケーションの開発における選択肢を増やすことです。ただし、ユーザーが人工知能を使用しないサービスを構築する場合でも、Google Cloud環境で安定して動作させることができます。
クラウドインフラとサービスは関税政策の影響を受けないと予想される
トランプ政権が最近提案した新たな関税政策については(注記)については、クラウドインフラ設計に何らかの影響や調整がもたらされる可能性があると指摘されていますが、マーク・ローマイヤー氏は、影響の有無はまだ明確ではないため、クラウドインフラ設計に変更はないと考えています。また、クラウドサービスのインフラ展開は、一般的な完成機の導入・販売とは多少異なるため、実際の影響はそれほど大きくないとも述べています。

ノート:その後、90日間の実施停止と、中国に対する関税のみ125%に引き上げられることが発表された。


