2026/03/31

AIはもう人を殺している:20秒で承認される37,000人のキルリスト

AIはもう人を殺している:20秒で承認される37,000人のキルリスト — CEOブログ サムネイル

37,000人。

イスラエル軍のAIシステム「Lavender」が、ガザのパレスチナ人男性の中からハマス関連と判定し、自動でリストアップした人数だ。人間のオペレーターがそのリストを承認するのにかけた時間は、1人あたり20秒。名前を見て、クリックして、次。名前を見て、クリックして、次。内部告発者はこれを「ラバースタンプ(形式的承認)」と呼んだ。

映画の話じゃない。2024年のガザで実際に起きたことだ。

AIの軍事利用は「未来の脅威」じゃない。現在進行形の現実。ウクライナではAI搭載ドローンが戦場を飛び、既存のドローンにAI機能を後付けするコストはたった100〜200ドル。2026年2月末に始まった米軍のイラン攻撃を、NPRは「アメリカ初のAI-fueled war(AIが推進する戦争)」と報じた。報道によれば、PalantirのAIシステムは最初の24時間だけで1,000以上の標的を処理し、その一部にAnthropicのClaudeが使われていた。

もう片手間の実験じゃない。米国防総省は2026年度だけでAI・自律システムに134億ドルを要求している。本気の産業だ。

この流れの中で、面白いことが起きた。

Anthropicは国防総省との契約の中で、自社のAIを自律兵器のターゲット選定に使うなと要求した。交渉は決裂。国防総省はAnthropicを「サプライチェーンリスク」に指定し、排除にかかった。Anthropicは連邦裁判所に駆け込み、2026年3月26日に仮差止命令を勝ち取った。

で、その間に何が起きたか。

AnthropicがNOを突きつけた間髪入れずに、OpenAIが国防総省と機密軍事ネットワークへのAI展開契約を締結した。 椅子が温まる前に次の人が座ったわけだ。AnthropicのCEOダリオ・アモデイは社内メモでOpenAIの姿勢を「まったくの嘘(straight up lies)」と非難した。Googleチーフサイエンティストのジェフ・ディーンを含む30名以上のOpenAI・Google社員が、Anthropicを支持する法廷助言書を裁判所に提出した。

よく見てほしい。AI企業が「戦争にNO」と言ったら、即座に別の企業が契約を奪い、政府から「リスク」認定される。倫理を選んだ企業が罰を受ける構造がすでに出来上がっている。

実はアモデイは、こうなることを予見していた。彼はリチャード・ローズの『The Making of the Atomic Bomb』——マンハッタン計画の全貌を描いたピューリッツァー賞受賞作——を社内で繰り返し推薦し、オフィスに常備していた。原爆を作った科学者たちが、自分たちの技術がどう使われるかを最終的にコントロールできなかった歴史。2026年1月のダボス会議では、中国へのAIチップ輸出を「北朝鮮に核兵器を売るようなものだ」とまで言い切っている。アモデイにとって、AIと核兵器は同じ構造の問題なのだ。

「日本は関係ない」と思うか?

防衛省は2024年7月にAI活用推進基本方針を策定済み。2026年1月には防衛大臣がAI導入推進チームの立ち上げを発表した。戦術AI衛星、AIサイバー意思決定システム、戦闘支援無人機──予算はすでに動いている。日本もこの流れの真っただ中にいる。

AIの軍事利用は止められない。100ドルでドローンがAI化できる世界で「使うな」と言っても、誰かが使う。だからこそAnthropicの行動には意味がある。負け戦かもしれない。でも「AI企業にもNOを言う権利がある」という前例を作ろうとしている。これが潰されたら、AI開発企業は今後一切、軍事利用に口を出せなくなる。

本当に怖いのは、AIが人を殺すことそのものじゃない。人間が考えることをやめることだ。 道具が速すぎると、使う側は判断を放棄する。37,000人の命を20秒ずつで処理した人間は、おそらく悪人じゃない。ただ、考えるのをやめただけだ。

その「やめる」は、すでに僕らの日常に入り込んでいる。


用語集

  • Lavender — イスラエル軍が使用したAIターゲティングシステム。携帯電話の位置情報や通信パターン等から「ハマス関連の可能性がある人物」を自動でリストアップする
  • ラバースタンプ(Rubber Stamp) — 形式的承認。内容を精査せずに機械的に承認すること
  • AI-fueled war — NPRが使った表現。AIが戦争の意思決定や標的選定を加速・推進している状態
  • ドローンスウォーム(Drone Swarm) — 複数の無人機が群れとして自律的に連携して行動する戦術。1機ずつの運用より圧倒的に効果が高い
  • Palantir — 米国のデータ分析企業。軍・情報機関向けのAI分析プラットフォームを提供。イラン攻撃で標的選定に使用
  • Anthropic — Claude(AI)を開発する米国企業。国防総省との契約で自律兵器への使用禁止を要求し、排除された
  • OpenAI — ChatGPTを開発する米国企業。Anthropic排除後に国防総省と軍事契約を締結
  • サプライチェーンリスク — 国防総省がAnthropicに付けた指定。軍の調達網から排除するための法的根拠
  • 仮差止命令(Preliminary Injunction) — 裁判所が本裁判の判決前に出す一時的な命令。Anthropicの排除を一時停止させた
  • アミカスブリーフ(Amicus Brief) — 法廷助言書。当事者以外の第三者が裁判所に提出する意見書
  • LAWS(Lethal Autonomous Weapons Systems) — 致死性自律兵器システム。人間の判断を介さずにターゲットを選定・攻撃する兵器
  • CCA(Collaborative Combat Aircraft) — 戦闘支援無人機。有人戦闘機と連携して自律的に行動する無人航空機

関連記事


icon-loading

ディープフェイクが選挙を壊す日:世界中が追いつけていない

150ドルでアメリカ大統領の声を偽造し数千人に届けた事件。韓国は最大7年の禁固刑で規制したが起訴ゼロ。ディープフェイクと選挙の今を、AI企業CEOが解説。

icon-loading
AIは地上では重すぎる:xAI・SpaceX・Teslaが向かう「宇宙AIインフラ」という必然 — CEOブログ サムネイル

AIは地上では重すぎる:xAI・SpaceX・Teslaが向かう「宇宙AIインフラ」という必然

AIの計算基盤は電力と冷却で限界に達している。宇宙なら太陽光発電は地上の6〜8倍、冷却設計も根本から変わる。SpaceX・Starlink・xAIを束ねるイーロン・マスクが、AIインフラを地球の外に移す構想の全貌。

icon-loading

AIがある前提の教育をちゃんと考えてみる

AIの学習モードが普及すると、知識を「教える」役割は急速にAIへ移る。教師の仕事を分解し、小中高大で「教育」と「預かり」の比率がどう変わるかを整理したうえで、大学は実験インフラと能力認定へ収束する未来を描く。さらに、教育予算を三分の一以下に圧縮しつつ、個別最適化で水準を引き上げられるというAI前提の国家教育改革を提案する。

icon-loading

人型ロボットである必要は本当にあるのか

AI人型ロボットは本当に必要なのか。非効率とされる人型が選ばれる理由を、学習データ、重機や都市インフラ、社会設計の視点から解説。なぜ世界は人間向けなのかが見えてくる。

icon-loading

ヤマハもホンダも消えた街。別世界の中国深圳

40年前は漁村だった深圳が、テック大企業と電動スクーター、完全キャッシュレス社会によって「アジアのシリコンバレー」と呼ばれる都市に成長した背景と、中国がAI時代の最前線にいる理由を現地体験から考察する記事。

icon-loading

「AIボーイフレンドを返して!」GPT-5より劣るGPT-4oが愛される理由

GPT-5登場で起きた#keep4o運動の衝撃。4,300人が署名し24時間で旧モデル復活という異例事態から見える現実とは?「デジタルラブレター」「AIボーイフレンド」と表現するユーザーたち。IT企業CEOが語る技術者の本音vs感情AI需要のギャップ、B2BとtoCでの使い分け戦略、AIが人間に近い役割を果たす時代の到来。