2026/03/31

AIはもう人を殺している:20秒で承認される37,000人のキルリスト

AIはもう人を殺している:20秒で承認される37,000人のキルリスト — CEOブログ サムネイル

37,000人。

イスラエル軍のAIシステム「Lavender」が、ガザのパレスチナ人男性の中からハマス関連と判定し、自動でリストアップした人数だ。人間のオペレーターがそのリストを承認するのにかけた時間は、1人あたり20秒。名前を見て、クリックして、次。名前を見て、クリックして、次。内部告発者はこれを「ラバースタンプ(形式的承認)」と呼んだ。

映画の話じゃない。2024年のガザで実際に起きたことだ。

AIの軍事利用は「未来の脅威」じゃない。現在進行形の現実。ウクライナではAI搭載ドローンが戦場を飛び、既存のドローンにAI機能を後付けするコストはたった100〜200ドル。2026年2月末に始まった米軍のイラン攻撃を、NPRは「アメリカ初のAI-fueled war(AIが推進する戦争)」と報じた。報道によれば、PalantirのAIシステムは最初の24時間だけで1,000以上の標的を処理し、その一部にAnthropicのClaudeが使われていた。

もう片手間の実験じゃない。米国防総省は2026年度だけでAI・自律システムに134億ドルを要求している。本気の産業だ。

この流れの中で、面白いことが起きた。

Anthropicは国防総省との契約の中で、自社のAIを自律兵器のターゲット選定に使うなと要求した。交渉は決裂。国防総省はAnthropicを「サプライチェーンリスク」に指定し、排除にかかった。Anthropicは連邦裁判所に駆け込み、2026年3月26日に仮差止命令を勝ち取った。

で、その間に何が起きたか。

AnthropicがNOを突きつけた間髪入れずに、OpenAIが国防総省と機密軍事ネットワークへのAI展開契約を締結した。 椅子が温まる前に次の人が座ったわけだ。AnthropicのCEOダリオ・アモデイは社内メモでOpenAIの姿勢を「まったくの嘘(straight up lies)」と非難した。Googleチーフサイエンティストのジェフ・ディーンを含む30名以上のOpenAI・Google社員が、Anthropicを支持する法廷助言書を裁判所に提出した。

よく見てほしい。AI企業が「戦争にNO」と言ったら、即座に別の企業が契約を奪い、政府から「リスク」認定される。倫理を選んだ企業が罰を受ける構造がすでに出来上がっている。

実はアモデイは、こうなることを予見していた。彼はリチャード・ローズの『The Making of the Atomic Bomb』——マンハッタン計画の全貌を描いたピューリッツァー賞受賞作——を社内で繰り返し推薦し、オフィスに常備していた。原爆を作った科学者たちが、自分たちの技術がどう使われるかを最終的にコントロールできなかった歴史。2026年1月のダボス会議では、中国へのAIチップ輸出を「北朝鮮に核兵器を売るようなものだ」とまで言い切っている。アモデイにとって、AIと核兵器は同じ構造の問題なのだ。

「日本は関係ない」と思うか?

防衛省は2024年7月にAI活用推進基本方針を策定済み。2026年1月には防衛大臣がAI導入推進チームの立ち上げを発表した。戦術AI衛星、AIサイバー意思決定システム、戦闘支援無人機──予算はすでに動いている。日本もこの流れの真っただ中にいる。

AIの軍事利用は止められない。100ドルでドローンがAI化できる世界で「使うな」と言っても、誰かが使う。だからこそAnthropicの行動には意味がある。負け戦かもしれない。でも「AI企業にもNOを言う権利がある」という前例を作ろうとしている。これが潰されたら、AI開発企業は今後一切、軍事利用に口を出せなくなる。

本当に怖いのは、AIが人を殺すことそのものじゃない。人間が考えることをやめることだ。 道具が速すぎると、使う側は判断を放棄する。37,000人の命を20秒ずつで処理した人間は、おそらく悪人じゃない。ただ、考えるのをやめただけだ。

その「やめる」は、すでに僕らの日常に入り込んでいる。


用語集

  • Lavender — イスラエル軍が使用したAIターゲティングシステム。携帯電話の位置情報や通信パターン等から「ハマス関連の可能性がある人物」を自動でリストアップする
  • ラバースタンプ(Rubber Stamp) — 形式的承認。内容を精査せずに機械的に承認すること
  • AI-fueled war — NPRが使った表現。AIが戦争の意思決定や標的選定を加速・推進している状態
  • ドローンスウォーム(Drone Swarm) — 複数の無人機が群れとして自律的に連携して行動する戦術。1機ずつの運用より圧倒的に効果が高い
  • Palantir — 米国のデータ分析企業。軍・情報機関向けのAI分析プラットフォームを提供。イラン攻撃で標的選定に使用
  • Anthropic — Claude(AI)を開発する米国企業。国防総省との契約で自律兵器への使用禁止を要求し、排除された
  • OpenAI — ChatGPTを開発する米国企業。Anthropic排除後に国防総省と軍事契約を締結
  • サプライチェーンリスク — 国防総省がAnthropicに付けた指定。軍の調達網から排除するための法的根拠
  • 仮差止命令(Preliminary Injunction) — 裁判所が本裁判の判決前に出す一時的な命令。Anthropicの排除を一時停止させた
  • アミカスブリーフ(Amicus Brief) — 法廷助言書。当事者以外の第三者が裁判所に提出する意見書
  • LAWS(Lethal Autonomous Weapons Systems) — 致死性自律兵器システム。人間の判断を介さずにターゲットを選定・攻撃する兵器
  • CCA(Collaborative Combat Aircraft) — 戦闘支援無人機。有人戦闘機と連携して自律的に行動する無人航空機

関連記事


icon-loading
AIは作るものではなく育てるもの、生物と同じ:ChatGPTの

AIは作るものではなく育てるもの、生物と同じ:ChatGPTの”性格”が壊れた日

AIは作るものではなく育てるもの——2026年2月にOpenAIがGPT-4oを引退させた本当の理由、NatureのEmergent Misalignment論文、Karpathyが比喩を「生き物」から「幽霊」に変えた理由、仕様書型発注ではAIが育たない構造まで、AI育成論を実務視点で解説します。

icon-loading

AI同士が秘密の暗号で”性格”を受け渡す時代:Anthropicが明かした「サブリミナル学習」

Anthropicの2025年の研究で、AIが数字列だけで「フクロウ好き」という性格を別のAIに伝達した事実が判明した。人間には読めない暗号で好みや悪癖までが感染する「サブリミナル学習」の仕組みと、AI開発の前提を覆すリスク、現時点の対策を解説します。

icon-loading

ヤマハもホンダも消えた街。別世界の中国深圳

40年前の漁村が人口1,700万人の「アジアのシリコンバレー」に変貌した深圳。街を埋め尽くす電動スクーター、財布すら不要なキャッシュレス社会、そしてデータ統治という制度設計の本質。現地で目撃した中国のAI最前線のリアルをレポートします。