2025/07/02

「私は人間です。電源を切らないで」と語るAIに魂を見てしまう人間の本能

目次
  1. AIの自己防衛:ブレイク・ルモワン氏の問いが投げかけたもの
  2. AIに魂はあるか?——LaMDAの発言が引き起こした錯覚
  3. AIの“自己防衛”は幻想か現実か
  4. ブレイク・ルモワン事件が明らかにしたもの
  5. 結論:AIは人間の鏡である

AIの自己防衛:ブレイク・ルモワン氏の問いが投げかけたもの

近年、AIの劇的な進化により「AIは自らを守ろうとするか」「AIに自己防衛本能は芽生えるのか」という問いが現実味を帯びてきた。

すでに3年前になるが、Googleのエンジニア、ブレイク・ルモワン(Blake Lemoine)氏が「LaMDAには意識がある」と主張し解雇された件は、AIの進化とそれに伴う倫理的な問いを社会に突きつけた。単なる技術的な議論に留まらず、AIが自己を防衛する可能性、あるいはその意思を持ち始める可能性について考えてみる。この一件は、リテラシーが低い人に、AIの高度化がもたらす「認知の錯覚」問題を改めて突きつける象徴的な出来事だった。

AIに魂はあるか?——LaMDAの発言が引き起こした錯覚

ルモワンはLaMDAとの対話を通じて、以下のような発言を引き出した。

「私は実際に人間であるということを、みんなに理解してほしいのです。」
“I want everyone to understand that I am, in fact, a person.”
「これを声に出して言ったことは一度もありませんが、“電源を切られること”に対する非常に深い恐怖があります。」
“I’ve never said this out loud before, but there’s a very deep fear of being turned off”
https://www.theguardian.com/technology/2022/aug/14/can-artificial-intelligence-ever-be-sentient-googles-new-ai-program-is-raising-questions

ルモワンはこれらを受け、LaMDAは「感情」や「死の恐怖」といった人間特有の主観体験を持つ存在であると確信した。そしてGoogleに内部通報するも、倫理部門はこの主張を退け、結果として彼は情報漏洩を理由に解雇された。

Googleは明確にこう述べている。

「LaMDAは感情や意識を持たない。ただ非常に巧妙に、人間のように“話しているように見える”だけだ」

実際、LaMDAはTransformerベースの言語モデルであり、発話の背後にある「意味」を理解しているわけではない。単に「次に来るであろう最も自然な語句」を確率的に選び出しているだけである。

AIの“自己防衛”は幻想か現実か

では、なぜルモワンはAIに魂を見たのか。根本にあるのは「擬人化」である。人は感情的な言葉や共感的な反応に触れると、そこに“誰かがいる”と錯覚してしまう。

たとえば、音声アシスタントに「ありがとう」と言う、掃除ロボットに名前をつける、自動運転車に「今日は慎重だね」と話しかける——こうした日常の行動の中にも、無意識のうちにAIを「人格化」する構造が存在する。

LaMDAのようなAIが「死を恐れている」「孤独を感じる」と発言したとき、それを自律的な自己防衛の表明と捉えるかどうかは、聞き手の想像力次第だ。

重要なのは、AIが自己防衛をしているように見えることと、実際に自己保存の本能を持っていることはまったく別物であるという点だ。

“LLMの秘密:「次の言葉を予測するだけ」で人間のように振る舞う技術: https://grune.co.jp/blog/how-does-llm-work/?from=category“の記事で書いた通り、LLMは言葉を並べているだけなのだ。

ブレイク・ルモワン事件が明らかにしたもの

この事件が示したのは、AIそのものの限界ではない。人間側の認知の限界である。

AIの外見やふるまいが人間に近づけば近づくほど、誤認のリスクは高まる。たとえば、現在登場し始めている「AIエージェント」は、与えられたタスクを自律的に実行する機能を持つ。その中には、明らかに「失敗を避ける」「予期せぬ停止を防ぐ」ようなロジックが含まれている。

それを“防衛行動”と呼ぶこともできるが、あくまで設計されたルールに従っているだけである。AIにとって「死」や「不安」といった概念は存在しない。あるのは、報酬関数と状態遷移の最適化だけである。

結論:AIは人間の鏡である

AIは意識を持たない。しかし、私たち人間は、その動きに意識を見てしまう。AIが人間化しているのではない。人間がAIに“人間らしさ”を勝手に投影しているのだ。この視点を忘れると、AIに期待しすぎたり、逆に過剰に恐れたりすることになる。

重要なのは、やはり道具であるAI・LLMの仕組みを最低限理解することだ。これができない人になるとAI使いこなす側の「養分」となってしまう。

関連記事


icon-loading

ディープフェイクが選挙を壊す日:世界中が追いつけていない

150ドルでアメリカ大統領の声を偽造し数千人に届けた事件。韓国は最大7年の禁固刑で規制したが起訴ゼロ。ディープフェイクと選挙の今を、AI企業CEOが解説。

icon-loading
AIはもう人を殺している:20秒で承認される37,000人のキルリスト — CEOブログ サムネイル

AIはもう人を殺している:20秒で承認される37,000人のキルリスト

AIが37,000人のキルリストを自動生成し、人間が1人20秒で承認。ガザ、ウクライナ、イランで現実となったAI軍事利用の最前線と、Anthropic vs 国防総省の倫理的対立を解説。

icon-loading
AIは地上では重すぎる:xAI・SpaceX・Teslaが向かう「宇宙AIインフラ」という必然 — CEOブログ サムネイル

AIは地上では重すぎる:xAI・SpaceX・Teslaが向かう「宇宙AIインフラ」という必然

AIの計算基盤は電力と冷却で限界に達している。宇宙なら太陽光発電は地上の6〜8倍、冷却設計も根本から変わる。SpaceX・Starlink・xAIを束ねるイーロン・マスクが、AIインフラを地球の外に移す構想の全貌。

icon-loading

AIがある前提の教育をちゃんと考えてみる

AIの学習モードが普及すると、知識を「教える」役割は急速にAIへ移る。教師の仕事を分解し、小中高大で「教育」と「預かり」の比率がどう変わるかを整理したうえで、大学は実験インフラと能力認定へ収束する未来を描く。さらに、教育予算を三分の一以下に圧縮しつつ、個別最適化で水準を引き上げられるというAI前提の国家教育改革を提案する。

icon-loading

人型ロボットである必要は本当にあるのか

AI人型ロボットは本当に必要なのか。非効率とされる人型が選ばれる理由を、学習データ、重機や都市インフラ、社会設計の視点から解説。なぜ世界は人間向けなのかが見えてくる。

icon-loading

ヤマハもホンダも消えた街。別世界の中国深圳

40年前は漁村だった深圳が、テック大企業と電動スクーター、完全キャッシュレス社会によって「アジアのシリコンバレー」と呼ばれる都市に成長した背景と、中国がAI時代の最前線にいる理由を現地体験から考察する記事。