このままだと2030年までにアメリカ全土の電力消費の内、AIが25%を占める可能性
AIについては2023年に入ってからブームになっており、シリコンバレーに拠点を置く多くの企業はAI競争に勝つべく様々なサービスにAIを組み込み始めています。しかし、このAIが動作するための学習や運用には消費電力を大量に使うGPUの存在が不可欠でOpenAIを傘下に収めているMicrosoftでは自社で小型原子力発電所を作りたいのかモジューラー原子炉のエンジニアを採用しています。
そんなAIですが、ArmのCEOのRene Has氏が盛んな電力消費について警鐘を鳴らしており現在はアメリカ全土の電力消費の内4%がAI向けですが、2030年には最大25%にまで増えてしまう可能性があることを指摘しています。
代表的なAIであるChatGPTは1回のリクエストにつき2.9Whの電力を消費すると国際エネルギー機関(IEA)の試算で明らかにされています。これはGoogleの検索を1クエリ実行するのに対して10倍に及びます。また、最近話題になったOpenAIの動画生成AIのSoraは5分間の動画を生成するために700Wの消費電力が必要なNVIDIA Hopper H100を1時間程度使うのと同等の計算が必要です。さらに、生成の前に必要な学習についてはGrok 3は10万台のNVIDIA Hopper H100が必要とも言われています。
アメリカでは2022年には4兆440億kWhの電力が消費されていますが、現時点では4%と言う事で1776億kWhがAIデータセンターに使われていますが、単純に今使われている電力の25%がAIに使われるとすると1.1兆kWhになってしまいます。もちろん、2030年までにアメリカでは人口が増え、EVのシェアが増えるなど電力需要が増える方向に向いているためAIが使う分を新たな発電所の新設などで補う必要があるのですが、Has氏は今後、AI処理の効率の大幅な改善か政府による効率や電力消費に関する規制強化などが行わなければこの生成AIの利用は『持続可能』とは言い難い状況にあると述べています。
Rene Has氏はArmのCEOであり、Arm系アーキテクチャーはx86に比べて消費電力が低いなどの特徴があるため一種のポジション・トークかもしれませんが、実際にAIのためだけに数兆kWhを年間で使うのは現実的ではなく、コストも嵩んでしまいます。
今までAIについては度々ブームになっては課題に当たり消えてしまいましたが、今回のAIブームも人を置き換えるかもしれないと言われてはいますが結局、ハードウェアやアルゴリズムの大幅な効率化などが行われなければ収益性を確保できず現行の仕組みでのAIは廃れる可能性がありそうです。
Arm CEO warns AI’s power appetite could devour 25% of US electricity by 2030 | The Register
https://www.theregister.com/2024/04/09/ai_datacenters_unsustainable
コメント