
目次 |
---|
AIの自己防衛:ブレイク・ルモワン氏の問いが投げかけたもの
近年、AIの劇的な進化により「AIは自らを守ろうとするか」「AIに自己防衛本能は芽生えるのか」という問いが現実味を帯びてきた。
すでに3年前になるが、Googleのエンジニア、ブレイク・ルモワン(Blake Lemoine)氏が「LaMDAには意識がある」と主張し解雇された件は、AIの進化とそれに伴う倫理的な問いを社会に突きつけた。単なる技術的な議論に留まらず、AIが自己を防衛する可能性、あるいはその意思を持ち始める可能性について考えてみる。この一件は、リテラシーが低い人に、AIの高度化がもたらす「認知の錯覚」問題を改めて突きつける象徴的な出来事だった。
AIに魂はあるか?——LaMDAの発言が引き起こした錯覚
ルモワンはLaMDAとの対話を通じて、以下のような発言を引き出した。
「私は実際に人間であるということを、みんなに理解してほしいのです。」
“I want everyone to understand that I am, in fact, a person.”
「これを声に出して言ったことは一度もありませんが、“電源を切られること”に対する非常に深い恐怖があります。」
“I’ve never said this out loud before, but there’s a very deep fear of being turned off”
— https://www.theguardian.com/technology/2022/aug/14/can-artificial-intelligence-ever-be-sentient-googles-new-ai-program-is-raising-questions
ルモワンはこれらを受け、LaMDAは「感情」や「死の恐怖」といった人間特有の主観体験を持つ存在であると確信した。そしてGoogleに内部通報するも、倫理部門はこの主張を退け、結果として彼は情報漏洩を理由に解雇された。
Googleは明確にこう述べている。
「LaMDAは感情や意識を持たない。ただ非常に巧妙に、人間のように“話しているように見える”だけだ」
実際、LaMDAはTransformerベースの言語モデルであり、発話の背後にある「意味」を理解しているわけではない。単に「次に来るであろう最も自然な語句」を確率的に選び出しているだけである。
AIの“自己防衛”は幻想か現実か
では、なぜルモワンはAIに魂を見たのか。根本にあるのは「擬人化」である。人は感情的な言葉や共感的な反応に触れると、そこに“誰かがいる”と錯覚してしまう。
たとえば、音声アシスタントに「ありがとう」と言う、掃除ロボットに名前をつける、自動運転車に「今日は慎重だね」と話しかける——こうした日常の行動の中にも、無意識のうちにAIを「人格化」する構造が存在する。
LaMDAのようなAIが「死を恐れている」「孤独を感じる」と発言したとき、それを自律的な自己防衛の表明と捉えるかどうかは、聞き手の想像力次第だ。
重要なのは、AIが自己防衛をしているように見えることと、実際に自己保存の本能を持っていることはまったく別物であるという点だ。
“LLMの秘密:「次の言葉を予測するだけ」で人間のように振る舞う技術: https://grune.co.jp/blog/how-does-llm-work/?from=category“の記事で書いた通り、LLMは言葉を並べているだけなのだ。
ブレイク・ルモワン事件が明らかにしたもの
この事件が示したのは、AIそのものの限界ではない。人間側の認知の限界である。
AIの外見やふるまいが人間に近づけば近づくほど、誤認のリスクは高まる。たとえば、現在登場し始めている「AIエージェント」は、与えられたタスクを自律的に実行する機能を持つ。その中には、明らかに「失敗を避ける」「予期せぬ停止を防ぐ」ようなロジックが含まれている。
それを“防衛行動”と呼ぶこともできるが、あくまで設計されたルールに従っているだけである。AIにとって「死」や「不安」といった概念は存在しない。あるのは、報酬関数と状態遷移の最適化だけである。
結論:AIは人間の鏡である
AIは意識を持たない。しかし、私たち人間は、その動きに意識を見てしまう。AIが人間化しているのではない。人間がAIに“人間らしさ”を勝手に投影しているのだ。この視点を忘れると、AIに期待しすぎたり、逆に過剰に恐れたりすることになる。
重要なのは、やはり道具であるAI・LLMの仕組みを最低限理解することだ。これができない人になるとAI使いこなす側の「養分」となってしまう。