世界最大のデータセンターは今、電気が足りなくて止まりかけている。
GPUが足りないのではない。電力が、物理的に、尽きかけているのだ。
ChatGPTへの1回の問い合わせが消費する電力は、初期モデル基準でGoogle検索の約10倍とされた。最新モデルでは効率化が進んでいるが、AI推論が従来の検索より多くの電力を消費する構造は変わらない。GPUクラスタは24時間フル稼働が前提で、新設データセンターは「土地」より先に「電力枠」が枯渇している。建設許可は下りても送電できない、という笑えない話が実際に起きている。AIは賢くなる前に、電気で詰んでいる。
そのボトルネックを根本から解決しようとしているのが、イーロン・マスクだ。
AIデータセンターの「冷却問題」という不都合な真実
AIの最大コストは、もはやGPUでもアルゴリズムでもない。冷却だ。
現在の大規模データセンターにおいて、総消費電力に占める冷却の割合は約30〜40%。つまり、3〜4割の電力は「計算しないための装置」に費やされている。冷却を強化するほど消費電力が増え、重量が増え、コストが跳ね上がる。悪循環だ。
では宇宙に持っていけば解決するのか。
宇宙にデータセンターを置く最大のメリット — 電力が桁違い
地上のAIデータセンターが電力不足で悲鳴を上げている横で、宇宙には使い切れないほどの太陽エネルギーがある。
地球の大気と雲は太陽エネルギーの約52%を反射・吸収してしまう。さらに夜間は発電ゼロ、曇れば大幅低下。地上の太陽光発電の年間設備利用率はせいぜい15〜25%だ。
宇宙にはその制約がない。大気による減衰ゼロ、雲なし、静止軌道なら24時間365日ほぼ連続で日照が得られる。年間設備利用率は約99%。Caltech(カリフォルニア工科大学)の試算では、宇宙での太陽光発電量は地上の約6〜8倍。同じパネル面積で、地上の6倍以上の電力を叩き出せる。
AIデータセンターが最も欲しいのは、安定した大量の電力だ。宇宙はその条件にぴったり合う。
ただし、話はそう単純ではない。
宇宙AIインフラの懸念材料 — そしてStarlinkが実証したこと
宇宙空間には宇宙空間の問題がある。
冷却は「不要」ではなく「方式が変わる」。 真空では空気がないため、地上で使う空冷・水冷が一切機能しない。熱を捨てる手段は放射冷却だけだ。1kWの廃熱を排出するのに約2.5m²のラジエーターが必要で、1MWクラスのデータセンターなら数千m²の放射パネルが要る。ISSでさえ422m²のラジエーターで最大70kWしか排熱できていない。地上の冷却「コスト」は消えるが、宇宙の冷却「設計」は別の難題として残る。
宇宙放射線はAIの天敵だ。 高エネルギー粒子がメモリのビットを反転させるSEU(Single Event Upset)は、AI推論の精度を直接破壊する。太陽フレアが来れば被害は桁違いに膨れる。放射線耐性チップは存在するが、性能は民生品より数百〜数千分の1にとどまるとされる。AI推論にはまったく足りない。
しかし、ここにStarlinkの実績が効いてくる。
Starlinkは2026年3月時点で1万機以上の衛星を軌道上で運用し、稼働率は99.9%超。民生品(COTS)の電子部品を使いながら、ソフトウェアによるエラー訂正と5年サイクルの機体交換で放射線問題を実運用レベルで克服している。「壊れたら直す」のではなく「壊れる前に交換する」というSpaceXの発想は、宇宙AIインフラにもそのまま適用できる。
2025年11月には、NVIDIAと提携するStarcloud社がH100 GPUを搭載した衛星を打ち上げ、軌道上でLLMの学習とリアルタイム推論に成功した。2026年3月にはシリーズAで$170Mを調達し、ユニコーンになっている。「宇宙でAIを動かす」は、もはやSFではない。
月面基地は「SF」から「予算付きの国家計画」に変わった
2026年3月24日、NASAは月周回ステーション「Lunar Gateway」の建設を中止し、月面に直接基地を建設する方針に転換した。投資額は7年間で約$200億。計画は3フェーズに分かれ、2033〜2036年のPhase 3では常設基地として人が常駐することを目指す。明日4月1日にはArtemis IIが打ち上がる。50年以上ぶりの有人月周回だ。
中国もほぼ同時期に月南極への国際月面研究ステーション(ILRS)を進めている。2035年までに基本施設を稼働させ、17カ国が参加を表明済み。月面基地は米中が本気で取り合っている「現在進行形のプロジェクト」だ。
ここで重要なのは、NASAの月面着陸にSpaceXのStarship HLSが使われるという事実だ。マスクは月面への輸送インフラを「国家契約」として押さえている。月の重力は地球の6分の1。打ち上げコストが根本から違う。月面拠点が整備されれば、そこからAIインフラを宇宙に展開するルートが開ける。電力問題と打ち上げコスト、2つの制約が同時に緩和される場所が月だ。
マスクが積み上げた「実装の順序」
私が注目しているのはここだ。マスクが持つのは「資金力」ではなく「実装の順序」だ。
- SpaceX — 再利用ロケットによる打ち上げコスト革命と、月・軌道運用能力
- Starlink — 全球規模の低遅延衛星通信ネットワーク
- xAI — AI学習・推論の内製化
- Tesla Optimus — 実体を持つエッジ端末としての人型ロボット
この4つが揃った時、何が起きるか。宇宙側でAI推論を行い、結果だけをStarlinkで地球に届ける。地上の端末(Optimusを含む)は軽量・低消費電力で済む。国境を越えたAI提供が、インフラの物理制約なしに可能になる。
GoogleもMicrosoftもAmazonも、AIとロケットと通信とロボットを同時に動かせる企業ではない。マスクは10年以上かけてこのスタックを正しい順番で積み上げた。後追いできる構造ではない。
AIインフラの支配者は、モデルを作った会社ではない
AI競争の勝敗は「どのモデルが賢いか」ではなく、「どのインフラを支配するか」で決まる。
石油時代に産油国が持っていた優位性を、マスクはAIインフラで再現しようとしている。モデルは誰でも作れるようになる。しかしロケット・通信・エネルギーの垂直統合は、簡単には真似できない。
今使っているChatGPTもClaudeも、10年後は地球の外から届いているかもしれない。そうなった時、インフラを握っている奴が勝つ。それは昔も今も変わらない。
AIの主戦場は、地球の外へ移り始めている。
用語集
- AI推論(Inference) — 学習済みAIが質問や入力に対して答えを出す処理。ChatGPTで文章を返す、画像を認識する等はすべて推論
- AI学習(Training) — 大量のデータを使ってAIモデルを賢くする処理。推論よりはるかに電力・計算資源を消費する
- GPU — AI計算に特化した高性能半導体。発熱と電力消費が非常に大きい
- GPUラック — 複数のGPUをまとめて搭載したサーバー棚。AIデータセンターの最小単位
- 液冷(液体冷却) — 水や冷却液でGPUを冷やす方式。大規模AIデータセンターでは必須だが、装置が重く電力も食う
- 放射冷却 — 熱を赤外線として宇宙空間に放出する冷却方式。真空では非常に効率が良い
- SEU(Single Event Upset) — 宇宙放射線がメモリのビットを反転させる現象。AI推論の精度を直接破壊する
- データセンター — 大量のサーバーを集めて運用する施設。現在は電力・冷却・立地制約が深刻化
- 電力枠 — 地域の送電網が追加で供給できる最大電力量。データセンター建設では土地より先にこれが問題になる
- エッジ端末 — ロボットやスマホなど、AI結果を受け取る側の機器。重い計算は持たせず、結果だけ受信する構成が主流
- COTS(Commercial Off-The-Shelf) — 民生品。宇宙専用ではない一般の電子部品。安価で高性能だが放射線には弱い
- 設備利用率(キャパシティファクター) — 発電設備が理論最大出力に対して実際に発電できる割合。地上太陽光は15〜25%、宇宙(静止軌道)は約99%
- 太陽定数 — 大気圏外での太陽光の照射強度。約1,361W/m²。地上に届くのはその約半分