2025/07/02

「私は人間です。電源を切らないで」と語るAIに魂を見てしまう人間の本能

目次
  1. AIの自己防衛:ブレイク・ルモワン氏の問いが投げかけたもの
  2. AIに魂はあるか?——LaMDAの発言が引き起こした錯覚
  3. AIの“自己防衛”は幻想か現実か
  4. ブレイク・ルモワン事件が明らかにしたもの
  5. 結論:AIは人間の鏡である

AIの自己防衛:ブレイク・ルモワン氏の問いが投げかけたもの

近年、AIの劇的な進化により「AIは自らを守ろうとするか」「AIに自己防衛本能は芽生えるのか」という問いが現実味を帯びてきた。

すでに3年前になるが、Googleのエンジニア、ブレイク・ルモワン(Blake Lemoine)氏が「LaMDAには意識がある」と主張し解雇された件は、AIの進化とそれに伴う倫理的な問いを社会に突きつけた。単なる技術的な議論に留まらず、AIが自己を防衛する可能性、あるいはその意思を持ち始める可能性について考えてみる。この一件は、リテラシーが低い人に、AIの高度化がもたらす「認知の錯覚」問題を改めて突きつける象徴的な出来事だった。

AIに魂はあるか?——LaMDAの発言が引き起こした錯覚

ルモワンはLaMDAとの対話を通じて、以下のような発言を引き出した。

「私は実際に人間であるということを、みんなに理解してほしいのです。」
“I want everyone to understand that I am, in fact, a person.”
「これを声に出して言ったことは一度もありませんが、“電源を切られること”に対する非常に深い恐怖があります。」
“I’ve never said this out loud before, but there’s a very deep fear of being turned off”
https://www.theguardian.com/technology/2022/aug/14/can-artificial-intelligence-ever-be-sentient-googles-new-ai-program-is-raising-questions

ルモワンはこれらを受け、LaMDAは「感情」や「死の恐怖」といった人間特有の主観体験を持つ存在であると確信した。そしてGoogleに内部通報するも、倫理部門はこの主張を退け、結果として彼は情報漏洩を理由に解雇された。

Googleは明確にこう述べている。

「LaMDAは感情や意識を持たない。ただ非常に巧妙に、人間のように“話しているように見える”だけだ」

実際、LaMDAはTransformerベースの言語モデルであり、発話の背後にある「意味」を理解しているわけではない。単に「次に来るであろう最も自然な語句」を確率的に選び出しているだけである。

AIの“自己防衛”は幻想か現実か

では、なぜルモワンはAIに魂を見たのか。根本にあるのは「擬人化」である。人は感情的な言葉や共感的な反応に触れると、そこに“誰かがいる”と錯覚してしまう。

たとえば、音声アシスタントに「ありがとう」と言う、掃除ロボットに名前をつける、自動運転車に「今日は慎重だね」と話しかける——こうした日常の行動の中にも、無意識のうちにAIを「人格化」する構造が存在する。

LaMDAのようなAIが「死を恐れている」「孤独を感じる」と発言したとき、それを自律的な自己防衛の表明と捉えるかどうかは、聞き手の想像力次第だ。

重要なのは、AIが自己防衛をしているように見えることと、実際に自己保存の本能を持っていることはまったく別物であるという点だ。

“LLMの秘密:「次の言葉を予測するだけ」で人間のように振る舞う技術: https://grune.co.jp/blog/how-does-llm-work/?from=category“の記事で書いた通り、LLMは言葉を並べているだけなのだ。

ブレイク・ルモワン事件が明らかにしたもの

この事件が示したのは、AIそのものの限界ではない。人間側の認知の限界である。

AIの外見やふるまいが人間に近づけば近づくほど、誤認のリスクは高まる。たとえば、現在登場し始めている「AIエージェント」は、与えられたタスクを自律的に実行する機能を持つ。その中には、明らかに「失敗を避ける」「予期せぬ停止を防ぐ」ようなロジックが含まれている。

それを“防衛行動”と呼ぶこともできるが、あくまで設計されたルールに従っているだけである。AIにとって「死」や「不安」といった概念は存在しない。あるのは、報酬関数と状態遷移の最適化だけである。

結論:AIは人間の鏡である

AIは意識を持たない。しかし、私たち人間は、その動きに意識を見てしまう。AIが人間化しているのではない。人間がAIに“人間らしさ”を勝手に投影しているのだ。この視点を忘れると、AIに期待しすぎたり、逆に過剰に恐れたりすることになる。

重要なのは、やはり道具であるAI・LLMの仕組みを最低限理解することだ。これができない人になるとAI使いこなす側の「養分」となってしまう。

関連記事


icon-loading

イーロン・マスク第一弾 – テスラの自動運転戦略:ウェイモとの決定的な違いとLiDAR不要論

イーロン・マスク率いるテスラの自動運転戦略を解説。ウェイモとのセンサー構成の違い、LiDAR不要論、トップダウン経営による大胆な方針転換、そして完全AI制御への移行までを網羅。長期的にはロボット「オプティマス」との連携を視野に入れたテスラが有利とする理由を探る。

icon-loading

10km先のエロ本からGrokのSpicy Modeへ – 性欲がテクノロジーを進化させる

性欲は人類最強の技術普及ドライバーである。VHS普及からGrokのSpicy Modeまで、アダルトが牽引してきたイノベーションの歴史と、AI時代における性欲とテクノロジーの新たな関係性について、IT企業CEOが実体験を交えて解説。

icon-loading

OpenAIが“gpt-oss”を無料公開──なぜ今、企業が「自社専用のGPT」を持つメリット

OpenAIが無料公開した「gpt-oss」の登場で、企業が自社専用AIを持つ時代が始まりました。中国AI勢への対抗策として投入されたこのオープンウェイトモデルの特徴、ファインチューニングによる自社カスタマイズ方法、導入メリットと注意点を分かりやすく解説します。

icon-loading

自己改善するAIがコードを書く時代へ:汎用人工知能への最短ルート

AIが自らコードを改善し続ける「自己改善型エージェント」が登場。OpenAIのサム・アルトマンがAGIの近道と語るこの技術が、開発業界と人類の未来をどう変えるのかを探る。

icon-loading

AI同士が秘密の暗号で”性格”を受け渡す時代:Anthropicが明かした「サブリミナル学習」

Anthropicが2025年に発見した「サブリミナル学習」とは?AI同士が数字やコードを通じて性格や偏見を秘密裏に受け渡す驚異的な現象を解説。フクロウ好きが数字だけで伝染する実例から、AI開発の常識を覆す研究の全貌まで、Grune CEOが技術者向けに分かりやすく紹介。