AIの専門家達はGPUをNVIDIAからAMDへの乗り換えを検討中。AMDはサーバーCPUで成功した流れをGPUでも再現?
近年流行りのAIでは学習や運用にはNVIDIAのGPUを利用することがメジャーで、NVIDIAの中で最も性能が高いGPUであるHopper H100は1台400万円を超えるような価格でありながら、納品まで3~4ヶ月待ちという人気ぶりです。ただし、この高い価格がネックとなりスタートアップ企業などが購入し、1からGPUクラスターを構築することは非現実的で、最近はAWSなどを使うなどクラウドベースでGPUを使うユーザーも増えてきているようです。
ただ、それでもNVIDIAのGPUが人気であるのは変わりなく、株価も右肩上がりを記録していますがクラウドでGPUを利用できるサービスを展開するTensor WaveのJeff Tatarchuk氏がAIエンジニアや専門家82人にアンケートを取った結果、半数程度の人がNVIDIAからAMD製GPUに乗り換えを検討している事が明らかになりました。
AI向けGPUとしてはNVIDIAはHopper H100やAmpere A100などをラインアップしている一方で、AMDでも2023年末に生成AI用途に最適で高性能なInstinct MI300Xを発表しました。このGPUではHBM3を192 GB搭載するなどHopper H100を上回る面もあるのですが、アンケートによるとMI300Xについては入手性、コスト、パフォーマンスの面でHopper H100よりアドバンテージがあるとのことで、NVIDIAからの乗り換え先として挙げられているようです。
NVIDIA Hopper H100 | AMD Instict MI300X | |
---|---|---|
メモリー容量 | 96 GB | 192 GB |
メモリー帯域幅 | 2.0 TB/s | 5.1 TB/s |
FP8 | 1978.9 TFLOPs | 1961.2 TFLOPs |
INT8 | 1979 TOPs | 1961 TOPs |
Llama 2-13B (相対比較) | 1.0 (ベース) | 1.2 |
Bloom 176B (相対比較) | 1.0 (ベース) | 1.6 |
Hopper H100とInstinct MI300Xを比べるとワークロードによって得意、不得意があるものの生成AIで使われるモデルなどではHopper H100を上回るパフォーマンスを示しているなど優れる点もあるようです。ただ、NVIDIAからAMDへ移行するにはNVIDIAのエコシステムであるCUDAからAMDのROCmに移行させる必要があるためこのあたりのコストも考慮して実際にAMD Instinct MI300Xに乗り換えるかが検討されるため簡単に進むとは考えられません。
ただ、AMDでは過去にIntel Xeonに対してコストパフォーマンス面で優れるEPYCを投入したことで、サーバー・データセンター向けCPUのシェアを0%付近から20%超えにまで増やした実績があります。そのため、AMDではInstinct MI300Xやその後継のMI400XなどではNVIDIAに比べて高いコストパフォーマンスを発揮しつつ、同時進行でエコシステムの構築も進めるなどしてシェアを奪い取りに行くなどAMD EPYCで成功した流れをデータセンター向けGPUで再現できるのか今後のシェア動向が注目されます。
ソース:X (Twitter)
コメント