AMDとIntelが共同でx86向けAI拡張「ACE」を策定。AVX10と統合される行列演算拡張

AMDとIntelが共同でx86向けAI拡張「ACE」を策定。AVX10と統合される行列演算拡張

AMDとIntelは、x86アーキテクチャー向けの新しいAI拡張命令セット「ACE(AI Compute Extensions)」のホワイトペーパーを公開しました。AI処理で中核となる行列演算をAVX10比で最大16倍の演算密度で実行できるとされています。

目次

x86向けAI拡張「ACE」が標準化アーキテクチャーに

両社は2024年に「x86 Ecosystem Advisory Group(EAG)」を発足させ、x86の標準化に向けた取り組みを進めるなかでFRED、AVX10、ChkTag、ACEの4つの機能を発表しています。今回公開されたホワイトペーパーは、このうちAI処理向けのACEについて詳細を明らかにするものです。

ACEはAI処理で多用される行列乗算(Matrix Multiplication)を高速化するための拡張命令セットで、既存のSIMD拡張であるAVX10に統合される形で実装されています。AMDとIntelはACEを「x86向けの標準的な行列演算アクセラレーション・アーキテクチャー」と位置付けており、ノートPC向けからスーパーコンピューター向けまで幅広いハードウェアに対応するスケーラビリティーを備えるとしています。

x86のSIMD拡張を巡っては、IntelがAVX-512を先行投入したのに対しAMDの対応が遅れたことで命令セットの断片化が進み、開発者の対応を難しくする要因となっていました。ACEはこうした反省を踏まえ最初から両社協業で標準化される点で、過去とは異なる進め方といえそうです。

AVX10比で16倍の演算密度。INT8やBF16をサポート

ACEの中核機能はAVX10と連携する外積演算(Outer Product Operation)ベースの行列演算アクセラレーションで、同じ入力ベクトル数での比較ではAVX10のMultiply-Accumulate演算に対して16倍の演算密度を実現するとされています。

サポートするデータ形式はINT8、OCP FP8、OCP MXFP8、OCP MXINT8、BF16などAI処理で広く利用されるフォーマットを網羅しており、PyTorchやTensorFlowといった機械学習フレームワーク、NumPyやSciPyなどのPython向けライブラリへの統合も進められているとのことです。

ただし、ACEに対応するx86CPUの具体的な投入時期は明らかにされておらず、現時点では仕様の標準化段階にとどまっています。実際にエンドユーザーがAI処理性能の向上として体感できるのは、ACEを実装した次世代アーキテクチャーが市場に登場してからになる見通しです。

専用AIアクセラレーターを擁するNVIDIAに対し、x86CPU側でAI処理能力を底上げすることで対抗する構図といえます。NVIDIAのJensen Huang CEO自身が「AMDとIntelの協業はx86アーキテクチャーの存続に必要だった」と発言していることからも、両社の連携はAI時代におけるx86陣営の生存戦略として位置付けられそうです。

  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

Kazukiのアバター Kazuki 編集兼運営者

『ギャズログ | GAZLOG』の編集兼運営者
幼い頃から自作PCなどに触れる機会があり、現在は趣味の1つに。
自作PC歴は10年以上、経済などの知識もあるため、これらを組み合わせて高い買い物でもある自作PCやガジェットをこれから買おうと思ってる人の役に立てるような記事を提供できるよう心がけています。

目次