デバイス上で動作するAIアプリケーションの普及が加速するにつれ、写真撮影、音声、画像処理からAIアシスタントとのインタラクションに至るまで、あらゆる要求がますます複雑化しています。Armは、モバイルデバイス向けコンピューティングプラットフォームのAIコンピューティング機能を強化するScalable Matrix Extension 2(SME2)命令セットのリリースを発表しました。これにより、開発者はソースコードの追加変更を必要とせずにAIアプリケーションのパフォーマンスを向上させながら、低消費電力で高効率なアプリケーションエクスペリエンスを実現できます。
SME2は、Armv9命令セットアーキテクチャにおける高性能CPU命令セットのアップグレードです。コンピュータービジョン、音声認識、自然言語処理といったAIワークロードの処理効率を特に向上させるように設計されています。モバイルデバイスのCPU上で直接実行できるため、追加のクラウドコンピューティングリソースが不要になり、デバイス上のAIアプリケーションにおけるレイテンシと消費電力のボトルネックを軽減します。
さらに重要なのは、ArmのKleidiAIソフトウェア・アクセラレーション・レイヤーを通じて、開発者はモデルやアプリケーションを変更することなく、SME2の実行パフォーマンス向上のメリットを自動的に享受できることです。SME2は既に、GoogleのXNNPACK、LiteRT、MediaPipe、AlibabaのMNN、Microsoft ONNX Runtime、さらにはllama.cppなど、主要なAIフレームワークやライブラリに統合されています。つまり、SME2は既存のAndroid AIソフトウェアスタックに完全に統合されており、開発者は既存のアーキテクチャ内ですぐにそのメリットを享受できるということです。
GoogleのAndroid担当シニアエンジニアであるイリヤン・マルチェフ氏は、SME2テクノロジーにより、Gemma 3のような高度な言語モデルをローカルデバイス上でスムーズに実行できるようになり、クラウドコンピューティングの必要性がなくなると述べています。同等のハードウェアと比較して、SME2対応のGemma 3モデルはテキスト要約タスクにおいて6倍の速度を実現し、CPUコア1つで最大800語のコンテンツを生成することも可能であり、SMEがモバイルAIパフォーマンスにもたらす大幅な向上を浮き彫りにしています。
SME2を搭載したAndroidデバイスはまもなく市場に投入され、iOSデバイスはすでにSME2命令セットアーキテクチャをサポートしています。KleidiAIの自動行列演算機能と組み合わせることで、開発者は対応プラットフォーム上で開発するだけで、次世代AIアプリケーションにシームレスにアップグレードでき、より即時性が高く、低レイテンシで、高性能なインタラクティブ体験をユーザーに提供できます。
Armの統計によると、現在900万以上のアプリケーションとサービスがArmベースのコンピューティングプラットフォーム上で実行されており、2200万人以上の開発者が積極的に開発を行っています。SME2テクノロジーの普及が進むにつれて、より多くのアプリケーションがモバイルデバイス上で複雑なAI計算を実行できるようになり、ユーザーエクスペリエンスとパフォーマンスへの期待に革命をもたらすでしょう。





