NVIDIAがHopper H100などAI向けGPUの生産量を2024年中に3倍に増産予定。

本記事は広告およびアフィリエイトプログラムによる収益を得ています。
  • URLをコピーしました!
目次

NVIDIAがHopper H100などAI向けGPUを大増産。生産量は2023年比で3倍へ

ChatGPTをはじめとする生成AIについては2023年から個人やエンタープライズ問わずブームとなっており、MicrosoftやGoogle、MetaやAmazonなど主要なテック系企業の多くがこれらの生成AIの流行に乗り遅れないために投資を拡大していますが、この生成AIで力を発揮するNVIDIAのHopper H100などのグラフィックカードが需要に対して供給が追いついていないと言う問題に直面しています。

このHopper H100は1枚辺りの価格は300万円を超えるのですが、様々な企業がいち早く入手を試みようとしており価格が2倍にまで膨れ上がっている他、納期については今から注文しても2024年中頃以降と1年以上待たされるなど需要をほとんど満たせていない状態となっています。

そのため、NVIDIAとしては収益を上げる上での機会損失を最小限に防ぐため2023年中にもHopper H100の製造に必要なTSMC CoWoSパッケージの量産枠を追加で確保していますがさらなる増産を2024年に計画しているようです。

イギリスのファイナンシャル・タイムズ紙によると、NVIDIAはHopper H100の生産能力を少なくとも3倍に増やし、2023年に予定されている出荷量の50万台から2024年には150万台から200万台程度に拡大する事を計画しているようですが、この供給拡大は一筋縄ではいかぬ可能性もあります。

Hopper H100では高性能であるが故に、様々な最先端技術を採用しており製造にはTSMC 4nmに加えてCoWoSと呼ばれる先進的なパッケージング技術、またコンポーネントには超高速なメモリーであるHBM3などを搭載していますが、CoWoSについては製造ラインが限られている上にNVIDIA以外にもAMDなどもInstinct MI300向けに枠を確保しています。また、HBM3についても生産能力に制約があるためNVIDIAの計画通りに年50万台から最大200万台にHopper H100の供給を拡大できるかは不透明と言えそうです。

サーバー・データセンター向け製品を製造するホンハイやLenovoなどでは生成AI向けのサーバーの需要は今後大きく伸びる事を予測しているものの、2023年は肝心なグラフィックカードの供給が不足する事で収益が減少する可能性があると予測しており、NVIDIAがHopper H100などAI向けグラフィックスカードの生産量を拡大できるかは各社OEMの収益にも関わってくる様です。

ただ、NVIDIAではHopper H100以外にも2023年秋にはCoWoSやHBM3が不要でゲーミング向けグラフィックスカードに搭載されているAD102 GPUを搭載したAI向けGPU『L40S』などをラインアップに追加する予定であるため、Hopper H100にのみ需要が集中し、決算などに影響が出ない様にする策は同時並行で計画されているようです。

この記事が気に入ったら
フォローしてね!

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

コメント

コメントする

目次