インフォメーションウェブサイトがニュースを入手した申し立てNVIDIA は現在、社内の組織再編を進めており、人員削減を計画しています...パブリッククラウド部門のDGX Cloudこの部門は完全に廃止されたわけではなく、コアエンジニアリング事業グループに統合され、上級副社長のドワイト・ディアックスが指揮を執りました。今後、同部門の主な業務は「外部リース」から「社内研究開発」へと移行します。
「シャベルの販売」から「マイニングファームの運営」へ、これは NVIDIA にとって戦略的な転換なのでしょうか?
2023年、NVIDIAは盛大な祝賀会とともにDGX Cloudサービスを開始しました。当初の構想は、Oracle、Microsoft Azure、Google Cloudなどのクラウドサービスプロバイダーと提携し、これらのプロバイダーのデータセンター内にNVIDIA専用のDGXサーバークラスターを設置するというものでした。これにより、企業顧客はサブスクリプションを通じてNVIDIAからコンピューティングパワー(H100やBlackwellなどの最上位GPUを含む)とAIソフトウェアの包括的なスタックを直接レンタルできるようになり、「GPUを購入できない」という企業の悩みを解決できると謳っていました。さらに、より多くの企業が大量のGPUを備蓄することなく、大規模な高速コンピューティングリソースを迅速に入手できるようにすることも目指していました。
この再編発表は、NVIDIAがDGX Cloud事業の外部運用面を軽視する意向を示しています。将来のDGX Cloudは、主にNVIDIA社内のエンジニアによるチップ開発とテスト、そしてIsaac(ロボティクス)やNemotron(言語モデル)といった社内AIモデルのトレーニングに使用される予定です。
主要クライアントとの「内部ネットワークの戦い」を回避します。
なぜこのような変化が起きたのでしょうか。主な理由は利益相反の排除にあると広く考えられています。
NVIDIAはAI時代の武器商人ですが、最大の顧客はAWS、Microsoft、Googleなどのクラウドサービスプロバイダー(CSP)です。NVIDIAが独自のDGX Cloudサービスの運営に参入することは、実質的に主要顧客との競合となります。
DGX Cloud の外部ビジネスを縮小することで、これらのクラウド サービス プロバイダーとの関係を修復できるだけでなく、NVIDIA はリソースを現在需要の高い AI チップの設計、ハードウェア プラットフォームの提供、強力な CUDA ソフトウェアの優位性の維持に集中できるようになります。
分析と視点: コアコンピテンシーに戻り、専門家に任せましょう。
私の意見では、NVIDIA のこの動きは、むしろ巧妙な「戦略的撤退」です。
ジェンスン・フアンは、NVIDIAは単なるチップ企業ではなく「プラットフォーム企業」であると一貫して強調してきましたが、熾烈な競争が繰り広げられるクラウドサービス(IaaS)市場において、AWSやAzureといった企業は既に高い壁を築いています。NVIDIAは既にハードウェア販売で巨額の利益を上げているため、牛乳を得るためだけに牛を飼育する必要はなく、ましてや牛乳を販売する販売業者を怒らせるリスクを冒す必要もありません。
DGX Cloud サービスを社内利用向けに転換することで、NVIDIA 自身の研究開発のイテレーション速度が加速する可能性があります。結局のところ、より強力な次世代チップやよりスマートな自動運転 AI を設計するためには、NVIDIA 自身が膨大なコンピューティングパワーを最も必要とするスーパーユーザーなのです。社内開発に最適なツールを維持し、クラウドサービスをパートナーに委ねることは、AI における優位性を維持するための長期的な戦略となるかもしれません。


