NVIDIAのAI向けGPUの消費電力増加にアナリストも懸念。流石にこれ以上は無理?

本記事は広告およびアフィリエイトプログラムによる収益を得ています。
  • URLをコピーしました!
目次

NVIDIAのAI向けGPUの消費電力増加にアナリストも懸念

NVIDIAはAI向けに供給しているGPUで圧倒的なシェアを持っており、ここ最近の好決算もこのセグメントでほぼ独占していることが大きいのですが、NVIDIAがここ最近開発しているGPUについて消費電力の増加が将来的に持続可能な水準ではないとしてアナリストは懸念を抱いているようです。

NVIDIAのAI向けGPUについてはAmpere A100は500Wほど、Hopper H100は最大700W程度の消費電力と世代を上がる毎に上昇してきており、2024年に発表されたBlackwell B200については1400Wと性能は上がっているものの、性能に応じて消費電力も同じぐらい上がるという状況になっています。

この高まる消費電力はデータセンター運用におけるコスト増大や運用自体が困難になる可能性を秘めており、例えばMicrosoftとOpenAIが開発していると言われている大規模なデータセンターは原子力発電を使うという話でさえあるようです。これは一部の企業ではこのような力技で対応するかもしれませんが、今後このペースで消費電力が増えれば多くの企業がNVIDIA製GPUの導入を見送る可能性がある他、より低消費電力な製品が登場すればNVIDIAのエコシステムを上回る魅力を提示することになり同社の独占的地位が脅かされる可能性すらあると指摘しています。

仮にこのままNVIDIAを上回るような電力効率の製品が登場せず、企業も続々のAI向けGPUを導入するとしても、データセンターが消費する電力は無視できないレベルに上がることが確実になります。そうなれば、ライフラインを維持するために政府による規制の強化などNVIDIAにとって不利に働く規制が敷かれる可能性もあるため、NVIDIAとしては消費電力を維持しつつ性能を上げる方向にシフトするなど解決策を見つける事は必須と言えそうです。

コメント

ここ最近、AIは色々ともてはやされていますが、AIができることは何でも注目される一方で、実行に必要なリソースについてはあまり注目を集めていません。ただ、実際問題はAIの学習には700W以上使うGPUが数十万台必要だったり、実行にも数万台規模のGPUが必要など運用にかかるコストを考えるとこの先もAI開発や開発に必要な収益を挙げながら運用できるのか少し考えさせられます。

また、エネルギーや環境問題に関心が高い欧州を筆頭にデータセンターの消費電力について取り上げられる可能性もあるため、NVIDIAも性能を上げるのはいいのですが、無尽蔵に消費電力を上げる方向ではなく電力効率にもう焦点を当ててほしいところです。

ソース

“광란의 AI 랠리 끝났나”… 엔비디아 독주 체제 우려 커졌다 | 朝鮮日報

https://biz.chosun.com/it-science/ict/2024/04/22/2WZXNOSBHJC7JJ5TV2ALJWO5XI

この記事が気に入ったら
フォローしてね!

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!

この記事を書いた人

コメント

コメント一覧 (1件)

  • いや、別にAIに限らず、NVIDIAに限らずだと思うけど
    intelもAMDもチキンレースしすぎてる
    我が家のRTX4080も当然だが、我が家のRYZEN7950xも相当頭イカれてる
    本格水冷でも高負荷時は普通に90度超える
    コレで10時間とか平気でゴリゴリ回す…
    イヤ…劣化したり火事の原因にならないか不安がないか?と言われるとはっきり「ある」と思う
    で、コレをデフォと言われても…ねぇ
    無理なクロック上げのチキンレースよりコア数増やせ!と、思う(バランス取れと)
    7950xで組む際には「次」も考えて1300wのATX3.0電源にも投資したけど…
    どう考えてもこの将来を見据えた投資は馬鹿げてる…と、感じる
    でも1300w電源にして良かった♪という未来が…近づいてる気がする

    願わくば850w電源で事足りたじゃん♪過去の自分は馬鹿だった〜
    温度も80度で快適〜の未来を希望したい
    CPUもGPUも下手すると規制されるぞ?このままだと

コメントする

目次