AMDとIntelは、x86アーキテクチャー向けの新しいAI拡張命令セット「ACE(AI Compute Extensions)」のホワイトペーパーを公開しました。AI処理で中核となる行列演算をAVX10比で最大16倍の演算密度で実行できるとされています。
x86向けAI拡張「ACE」が標準化アーキテクチャーに
両社は2024年に「x86 Ecosystem Advisory Group(EAG)」を発足させ、x86の標準化に向けた取り組みを進めるなかでFRED、AVX10、ChkTag、ACEの4つの機能を発表しています。今回公開されたホワイトペーパーは、このうちAI処理向けのACEについて詳細を明らかにするものです。
ACEはAI処理で多用される行列乗算(Matrix Multiplication)を高速化するための拡張命令セットで、既存のSIMD拡張であるAVX10に統合される形で実装されています。AMDとIntelはACEを「x86向けの標準的な行列演算アクセラレーション・アーキテクチャー」と位置付けており、ノートPC向けからスーパーコンピューター向けまで幅広いハードウェアに対応するスケーラビリティーを備えるとしています。
x86のSIMD拡張を巡っては、IntelがAVX-512を先行投入したのに対しAMDの対応が遅れたことで命令セットの断片化が進み、開発者の対応を難しくする要因となっていました。ACEはこうした反省を踏まえ最初から両社協業で標準化される点で、過去とは異なる進め方といえそうです。
AVX10比で16倍の演算密度。INT8やBF16をサポート
ACEの中核機能はAVX10と連携する外積演算(Outer Product Operation)ベースの行列演算アクセラレーションで、同じ入力ベクトル数での比較ではAVX10のMultiply-Accumulate演算に対して16倍の演算密度を実現するとされています。
サポートするデータ形式はINT8、OCP FP8、OCP MXFP8、OCP MXINT8、BF16などAI処理で広く利用されるフォーマットを網羅しており、PyTorchやTensorFlowといった機械学習フレームワーク、NumPyやSciPyなどのPython向けライブラリへの統合も進められているとのことです。
ただし、ACEに対応するx86CPUの具体的な投入時期は明らかにされておらず、現時点では仕様の標準化段階にとどまっています。実際にエンドユーザーがAI処理性能の向上として体感できるのは、ACEを実装した次世代アーキテクチャーが市場に登場してからになる見通しです。
専用AIアクセラレーターを擁するNVIDIAに対し、x86CPU側でAI処理能力を底上げすることで対抗する構図といえます。NVIDIAのJensen Huang CEO自身が「AMDとIntelの協業はx86アーキテクチャーの存続に必要だった」と発言していることからも、両社の連携はAI時代におけるx86陣営の生存戦略として位置付けられそうです。


