37,000人。
イスラエル軍のAIシステム「Lavender」が、ガザのパレスチナ人男性の中からハマス関連と判定し、自動でリストアップした人数だ。人間のオペレーターがそのリストを承認するのにかけた時間は、1人あたり20秒。名前を見て、クリックして、次。名前を見て、クリックして、次。内部告発者はこれを「ラバースタンプ(形式的承認)」と呼んだ。
映画の話じゃない。2024年のガザで実際に起きたことだ。
AIの軍事利用は「未来の脅威」じゃない。現在進行形の現実。ウクライナではAI搭載ドローンが戦場を飛び、既存のドローンにAI機能を後付けするコストはたった100〜200ドル。2026年2月末に始まった米軍のイラン攻撃を、NPRは「アメリカ初のAI-fueled war(AIが推進する戦争)」と報じた。報道によれば、PalantirのAIシステムは最初の24時間だけで1,000以上の標的を処理し、その一部にAnthropicのClaudeが使われていた。
もう片手間の実験じゃない。米国防総省は2026年度だけでAI・自律システムに134億ドルを要求している。本気の産業だ。
この流れの中で、面白いことが起きた。
Anthropicは国防総省との契約の中で、自社のAIを自律兵器のターゲット選定に使うなと要求した。交渉は決裂。国防総省はAnthropicを「サプライチェーンリスク」に指定し、排除にかかった。Anthropicは連邦裁判所に駆け込み、2026年3月26日に仮差止命令を勝ち取った。
で、その間に何が起きたか。
AnthropicがNOを突きつけた間髪入れずに、OpenAIが国防総省と機密軍事ネットワークへのAI展開契約を締結した。 椅子が温まる前に次の人が座ったわけだ。AnthropicのCEOダリオ・アモデイは社内メモでOpenAIの姿勢を「まったくの嘘(straight up lies)」と非難した。Googleチーフサイエンティストのジェフ・ディーンを含む30名以上のOpenAI・Google社員が、Anthropicを支持する法廷助言書を裁判所に提出した。
よく見てほしい。AI企業が「戦争にNO」と言ったら、即座に別の企業が契約を奪い、政府から「リスク」認定される。倫理を選んだ企業が罰を受ける構造がすでに出来上がっている。
実はアモデイは、こうなることを予見していた。彼はリチャード・ローズの『The Making of the Atomic Bomb』——マンハッタン計画の全貌を描いたピューリッツァー賞受賞作——を社内で繰り返し推薦し、オフィスに常備していた。原爆を作った科学者たちが、自分たちの技術がどう使われるかを最終的にコントロールできなかった歴史。2026年1月のダボス会議では、中国へのAIチップ輸出を「北朝鮮に核兵器を売るようなものだ」とまで言い切っている。アモデイにとって、AIと核兵器は同じ構造の問題なのだ。
「日本は関係ない」と思うか?
防衛省は2024年7月にAI活用推進基本方針を策定済み。2026年1月には防衛大臣がAI導入推進チームの立ち上げを発表した。戦術AI衛星、AIサイバー意思決定システム、戦闘支援無人機──予算はすでに動いている。日本もこの流れの真っただ中にいる。
AIの軍事利用は止められない。100ドルでドローンがAI化できる世界で「使うな」と言っても、誰かが使う。だからこそAnthropicの行動には意味がある。負け戦かもしれない。でも「AI企業にもNOを言う権利がある」という前例を作ろうとしている。これが潰されたら、AI開発企業は今後一切、軍事利用に口を出せなくなる。
本当に怖いのは、AIが人を殺すことそのものじゃない。人間が考えることをやめることだ。 道具が速すぎると、使う側は判断を放棄する。37,000人の命を20秒ずつで処理した人間は、おそらく悪人じゃない。ただ、考えるのをやめただけだ。
その「やめる」は、すでに僕らの日常に入り込んでいる。
用語集
- Lavender — イスラエル軍が使用したAIターゲティングシステム。携帯電話の位置情報や通信パターン等から「ハマス関連の可能性がある人物」を自動でリストアップする
- ラバースタンプ(Rubber Stamp) — 形式的承認。内容を精査せずに機械的に承認すること
- AI-fueled war — NPRが使った表現。AIが戦争の意思決定や標的選定を加速・推進している状態
- ドローンスウォーム(Drone Swarm) — 複数の無人機が群れとして自律的に連携して行動する戦術。1機ずつの運用より圧倒的に効果が高い
- Palantir — 米国のデータ分析企業。軍・情報機関向けのAI分析プラットフォームを提供。イラン攻撃で標的選定に使用
- Anthropic — Claude(AI)を開発する米国企業。国防総省との契約で自律兵器への使用禁止を要求し、排除された
- OpenAI — ChatGPTを開発する米国企業。Anthropic排除後に国防総省と軍事契約を締結
- サプライチェーンリスク — 国防総省がAnthropicに付けた指定。軍の調達網から排除するための法的根拠
- 仮差止命令(Preliminary Injunction) — 裁判所が本裁判の判決前に出す一時的な命令。Anthropicの排除を一時停止させた
- アミカスブリーフ(Amicus Brief) — 法廷助言書。当事者以外の第三者が裁判所に提出する意見書
- LAWS(Lethal Autonomous Weapons Systems) — 致死性自律兵器システム。人間の判断を介さずにターゲットを選定・攻撃する兵器
- CCA(Collaborative Combat Aircraft) — 戦闘支援無人機。有人戦闘機と連携して自律的に行動する無人航空機