前編では、AIインフラに関するハイパースケーラーの動向やコンピューティングについて見てきました。今回は、後編となります。
AIインフラのデータセンターは、「計算力」ではなく「電力」で語られる時代に入りました。「知能のデジタル化」が進む一方で、GPU不足以上に深刻なのが、電力供給と送電網の制約です。急速に進む「エネルギー・インフレ」を背景に、AI競争における企業や国家の勢力図が塗り替えられつつあります。
2025年9月、OpenAIとNVIDIAが戦略的パートナーシップに基本合意し、「少なくとも10ギガワット規模のAIデータセンターを構築・運用する」と発表しました。ここで象徴的なのは、データセンターの規模が「計算力」ではなく「電力(ギガワット)」で語られるようになった点です。
-

OpenAIとNVIDIAの戦略的パートナーシップ発表は、長期的な計算力の増強、ハード×ソフトの協調戦略、巨額資金のAI企業への流入など、AI産業全体の競争・投資・技術ロードマップに長期的な影響を与える構造変化をもたらしました
なぜ、AIインフラの規模指標として電力が前面に出てきたのでしょうか。その背景には、現在のAIインフラが直面している本質的なボトルネックがあります。
表向きはGPU不足、実態は「電力・冷却・立地」
現在、AIインフラの制約として最も語られるのはGPU不足です。しかし実際には、それを稼働させるための「電力供給」「冷却システム」「立地条件」が、より深刻な制約になりつつあります。
電力密度の急上昇
従来のCPU中心のサーバラックは5~15kW程度でしたが、AI向けラックでは20〜40kW級が一般化しつつあり、液冷を前提とした50~100kW超の構成も視野に入っています。こうした高密度構成は同じ床面積で多くの電力を必要とし、送電設備や電源系統、冷却設備の設計条件を大きく変える要因となっています。送電網(グリッド)のひっ迫
データセンターの新設や増設に伴う系統接続申請が急増し、送電線や変電設備の増強が追いつかないケースが増えています。地域によっては、系統接続までに数年を要する例も報告されています。社会コストへの影響*
米国では、大規模データセンター開発が集中する地域で、卸電力価格の上昇圧力が強まっているとの指摘があります。電力需要の急増が地域住民の負担につながり、建設計画が反対運動に直面する事例も増えています。
これらを総合すると、AIデータセンターの建設可否を最終的に左右しているのは、計算能力ではなく、発電能力と送電網の余力であることが分かります。米国では長年横ばいだった電力需要が、AIデータセンターを契機に増勢へ転じつつありますが、供給と送電の増強は短期間では進みません。
どれだけ高性能なGPUを確保できても、電力を供給できなければ稼働させることはできません。実際に、電力制約によってGPUを設置できない事例も報告され始めています。このため、AIインフラ計画の物理的な上限指標として「計算力」よりも「電力容量」が用いられるようになったのです。
テック企業は「電力の消費者」から「供給主体」へ
エネルギーが最大のボトルネックとなったことで、巨大テック企業は立場を変え始めています。もはや単なる電力の大口消費者ではなく、自らエネルギー供給に関与する主体へと踏み出しています。
Microsoftは原子力発電所の再稼働を含む電力調達に関与し、Amazonも原子力関連事業者や次世代原子炉技術を含むエネルギー分野への投資を進めています。Googleは、小型モジュール炉(SMR)を開発するスタートアップと将来の電力調達を見据えた提携を発表しました。いずれも、将来のデータセンター需要を見据えた電源の多様化が狙いです。
日本でも、経済産業省などが電力インフラ(ワット)とデジタル・通信インフラ(ビット)を一体で整備・最適化する「ワット・ビット連携」を政策キーワードとして掲げ、AI時代のデータセンター整備を電力政策と不可分の課題として位置付けています。
「エネルギーの主権」を巡る競争
これまでのAI競争では「どのチップを確保できるか」が重要でした。しかし、今後は「安定した電源」、特にカーボンフリー電源をどれだけ確保できるかが、AI企業の競争力を左右する要因になります。エネルギーを安定的に確保できる企業ほど、コンピューティング・デフレの恩恵を最大限に享受できるからです。
AWS、Microsoft、Googleといったクラウドハイパースケーラーは、巨額の資本力を背景に、電力調達や設備投資でスタートアップに対して、圧倒的に有利な立場にあります。
大量の電力を有利な条件で長期契約でき、自前のデータセンターと最適化されたスタックを持ち、学習と推論を横断した利用率設計も可能です。こうした資本効率の差が競争優位を生んでいます。
生成AIブーム初期には、新興クラウドが用途特化設計によってコスト優位を発揮する場面もありました。しかし現在では、スタートアップが優れたモデルを開発できたとしても、推論コストを十分に下げられなければ大規模展開は困難です。AIインフラ競争は「技術力」から「ファイナンスとオペレーション」の勝負へと性格を変えつつあります。
-

テクノロジー業界アナリストのベネディクト・エバンス氏は、OpenAIについて「注目度は高いが、製品自体は差別化のないコモディティであり、独自のプラットフォームやインフラを持っていない」と指摘し、「持続可能性」を同社の課題としています
国家と地政学が規定する新たな「AIデバイド」
AIインフラを巡る競争は、企業間にとどまらず国家間へと拡大しています。半導体規制に加え、電力政策、原発や再生可能エネルギーの導入状況、データ主権といった要素が、AIインフラの立地と競争力を左右するようになってきました。
大規模AIモデルほど、学習・推論の双方で電力消費と発熱が増大します。しかし国や地域によっては、送電網の制約や許認可の問題、住民の反対などにより、新たなデータセンター建設が進まないケースもあります。水資源や排熱規制が冷却の制約になる地域もあり、結果として運用可能なAI規模に国ごとの差が生まる可能性があります。
金融、医療、行政、個人情報といった分野では、AI活用が期待される一方で、データの国内管理が求められる場合も少なくありません。その国にデータセンターがなければ、法的にAI運用が成立しないケースも想定されます。
-

主要75カ国において、立法手続きにおけるAIの言及は2023年の1557件から2024年には1889件に増加しました(21.3%増)。2016年以降、AIの言及総数は9倍以上に増加しています(Stanford University HAI:The 2025 AI Index Report)
日本では、データセンターの約9割が首都圏・関西圏に集中する一方、再生可能エネルギーや原子力発電所は北海道や九州などの遠隔地に多く存在します。需要地と供給地の地理的ギャップが顕在化しており、送電網整備やクリーン電力の安定供給が喫緊の課題となっています。
この先に起きる変化
こうした動きが進めば、世界は運用可能なAI規模によって階層化され、新たな「計算力デバイド」が生まれる可能性があります。
AIインフラはすでに、一国の経済競争力や安全保障を左右する戦略的資産と見なされ始めています。各国政府が自国向けのGPUクラウドやデータセンター整備を進める「AI主権」の動きも強まる一方で、半導体輸出規制を背景とした技術的分断のリスクも高まっています。
私たちは今、「知能をデジタル化するために、物理世界のエネルギーを再構築する」という巨大なパラドックスの中にいます。かつてのデジタル革命は、紙やCD、店舗といった物理的なモノを、軽やかなビットへと置き換える脱物質化のプロセスでした。しかし、AI革命は大量の電力と物理インフラを前提とする、逆方向の変化を伴っています。
ソフトウェアは瞬時に複製できますが、それを支えるデータセンターの建設には年単位の時間がかかり、送電網の整備にはさらに長期の政治的調整が必要です。デジタルな知能は、皮肉にも「アトム(物理的制約)」に強く縛られるフェーズに入りました。
アルゴリズムによる差別化が難しくなるにつれ、競争の焦点は「ソフトウェアを動かすための物理的基盤」へと移行しています。戦争の勝敗が兵器性能だけでなく、燃料や補給で決まるように、AI開発の行方も、安定した電力確保と熱管理という地味で現実的な能力に左右されます。
Appleがハードとソフトを垂直統合してきたように、現在のビッグテックは「発電(原発・再エネ)+送電+計算」を一体化した垂直統合モデルを志向し始めています。それはもはやIT企業の枠を超えた「インフラ・プロバイダー」への変貌です。
かつて産業革命において石油の供給網を握った者が覇権を握ったように、AI時代には「知能を動かすための電力網」を制した企業や国家が覇権を握ることになりそうです。

