OpenAIは先日、Cerebras Systemsチップ上で動作する初の新しいAIモデルを発表した。GPT-5.3-コーデックス-SparkOpenAI が自社製品のコンピューティング基盤を NVIDIA チップから移行したのは今回が初めてであり、チップサプライチェーンの多様化戦略の始まりを示すとともに、NVIDIA 以外の AI アクセラレータに大きな弾みをつけるものとなる。
「超高速推論」を特徴とするこの軽量モデルは、プログラムの作成に特化して設計されています。
新たにリリースされたGPT-5.3-Codex-Sparkは、OpenAI傘下のコード自動化ツールであるCodexの軽量版です。複雑な計算における究極のパフォーマンスの追求ではなく、「効率性」を重視した設計となっています。
ソフトウェアエンジニアにとって、AIプログラミングアシスタントの最も重要な側面は「即時応答」です。GPT-5.3-Codex-Sparkを使用すると、開発者はコードの変更やテストの実行などの日常的なタスクを迅速に完了できるだけでなく、いつでも現在のジョブを中断して新しいタスクを割り当てることができるため、AIが結果を生成するまでの待機時間を大幅に短縮できます。
このスピードの背後には、先月OpenAIとAIチップのスタートアップ企業Cerebras Systemsが行ったコラボレーションがある。数十億ドル規模の契約このモデルは現在、高速推論用に特別に構築された大規模な AI アクセラレータである Cerebras Systems の主力製品である Wafer Scale Engine 3 (WSE-3) 上で実行されています。
基盤となるパイプラインの大幅な見直しにより、レイテンシが 80% 削減されました。
OpenAIは、Cerebras Systemsのハードウェアアーキテクチャを補完するために、新しいチップ向けに最適化しただけでなく、推論パイプライン全体を大幅に改善しました。これらの基盤となるアップグレードにより、大幅なパフォーマンス向上が実現しました。
• 往復遅延が80%削減クライアントとサーバー間の通信速度が大幅に向上しました。
• 最初の文字の出力時間 (TTFT) が 50% 短縮されました。AI が最初のコードを出力するまでの反応時間が半分になります。
• トークンあたりのコストが 30% 削減されました:計算コストが大幅に削減されました。
• WebSocket接続時間の改善:会話の安定性と即時性を確保するために、デフォルトで有効になっています。
現在、GPT-5.3-Codex-Sparkは128Kのコンテキストウィンドウを持つプレーンテキストモデルであり、画像やマルチモーダル入力はまだサポートされていません。このモデルは現在、ChatGPT Pro加入者向けの「リサーチプレビュー」として提供されており、今後数週間でより広範な利用が可能になる予定です。
NVIDIA はパートナー ネットワークを積極的に拡大しながらも、依然として「メイン プレーヤー」であり続けています。
この提携は、Cerebras Systemsにとって大きな飛躍を意味し、NVIDIAの長年にわたる市場支配を打ち破るものです。OpenAIにとっては、これは「ベンダーリスクの分散」に向けた一連の取り組みにおける最新の展開に過ぎません。
OpenAIは昨年10月にAMDと複数年契約を締結し、最大6GWのGPUコンピューティングパワーを導入する計画を既に発表していました。同月には、BroadcomともカスタムASICおよびネットワークコンポーネントの開発契約を締結しました。
しかし、OpenAIとNVIDIAの関係が悪化しているという噂に対し、OpenAIの幹部はすぐに介入し、噂を鎮めました。広報担当者は、NVIDIAとのパートナーシップは「基盤となる」ものであり、NVIDIAのハードウェアは引き続きOpenAIのトレーニングおよび推論アーキテクチャの中核を担っていると改めて強調しました。Cerebras Systems、AMD、Broadcomのチップの導入は、純粋に「エコシステムの拡大」を目的としています。



