ChatGPT 5には20万台近いGPUを総動員
2025年8月7日(日本時間8月8日)に公開された生成AI「ChatGPT 5」は、推論能力や速度の向上など、従来のGPT-4oやGPT-3oモデルに比べて大幅な性能向上が謳われています。このChatGPT 5の運用に不可欠なGPUについて、OpenAIでデータセンターなどインフラを担当するAnuj Saharan氏が、自身のLinkedInでGPUの大まかな台数を明らかにしました。

Saharan氏によると、OpenAIはChatGPT 5のために2024年時点から比べて15倍以上の計算能力を獲得しており、最終的にGPT 5の運用開始に向けて20万台以上のGPUを用意したとのことです。
GPUだけで一般家庭42万世帯分の消費電力に相当
Saharan氏は「20万台以上」という台数のみを示し、具体的なGPUのモデル名は明らかにしていません。ただ、2024年から2025年の間にNVIDIAは「Hopper H200 GPU」と「Blackwell B200 GPU」の2モデルを投入しており、それぞれの消費電力はH200が約700W、B200が最大1200Wです。仮にOpenAIがこれらを半々で使用しているとすると、GPU単体だけで消費電力は約190MWに達します。これは日本の一般家庭で換算すると、約42万世帯分に相当します。
ただ、このような大規模なGPUを活用したデータセンター運用にはGPU以外にもCPUやメモリ、ネットワーク機器、冷却、電力変換損失などもさらに多くの電力が必要となります。
実際に、NVIDIAが販売するサーバー「DGX H200」(H200 GPUを8基搭載)の仕様を見ると、サーバー全体の最大消費電力は10.2kWですが、そのうちGPU自体の消費電力は5.6kWであり、残りの約45%はGPU以外のパーツで消費されています。
この比率を当てはめると、GPUとそれを搭載するサーバーラックだけで、消費電力は約350MWに膨れ上がります。さらに、施設全体のネットワーク機器や大規模な空調設備、電力変換時の損失などを考慮すると、20万台ものGPUを運用するデータセンター全体の消費電力は500MW近くに達すると推測されます。
この500MWの電力は一般家庭で言うと110万世帯で、一般的な原子力発電所の定格出力の半分に相当します。
今後はさらに消費電力が増加する可能性も
生成AI含めたデータセンターには莫大な消費電力が必要であることはここ電力インフラに過大な負荷をかけるとして徐々に問題になりつつありますが、NVIDIAが2026年に投入予定の「Vera Rubin」 GPUは1基あたり1800Wもの消費電力になることが予測されるなど、計算能力向上と同時に消費電力も膨らんでいます。
そのため、今後もOpenAIやGoogle、Microsoftなどは膨大なインフラ投資を迫られることになります。そのため、AIの進化にも注目ですが、それらを動かすために必要なインフラ投資が商業的に持続できるのかなども注目してみると面白いかもしれません。
コメント