2025/05/21

LLMの秘密:「次の言葉を予測するだけ」で人間のように振る舞う技術

目次
  1. ChatGPT(LLM)の仕組み:次の言葉を予測するだけ
  2. チートシステムなのか?
  3. 人間の会話も似たようなもの?
  4. AIを理解することは、自分を理解すること

ChatGPT(LLM)の仕組み:次の言葉を予測するだけ

ChatGPTやClaudeなどのAIは大規模言語モデル(LLM: Large Language Models)と呼ばれる。AIを使いこなす側にまわるためには、基本的な仕組みを理解して、どのようなことが得意なのか苦手なのかを知る必要がある。

LLMの中核となる技術は「トランスフォーマー」と呼ばれるニューラルネットワークの構造である。これはGoogleの研究者たちが2017年に論文「Attention is All You Need」で発表したもので、現在のAI革命の基盤となっている。

基本的な動作原理は次のとおり:

  1. トークン化:テキストを小さな単位(トークン)に分割する。英語ならおおよそ単語や部分的な単語、日本語なら文字や短い単語のかたまりである。
  2. 埋め込み:各トークンを数百次元の数値ベクトルに変換する。これにより、似た意味の言葉は近い位置にマッピングされる。
  3. 自己注意機構(セルフアテンション):文脈を理解するための仕組みで、各トークンが文章中の他のトークンとどれだけ関連しているかを計算する。これにより、「彼」が誰を指しているかなど、文脈の理解が可能になる。
  4. 予測:文脈を踏まえて次に来る可能性が高いトークンを予測する。

小難しく見えたかもしれないが、要するに、「適当に次の言葉を選んでいるだけ」なのである。

つまり、 人間:「今日の天気は」 LLM:「晴れです」(「天気」の後に「晴れ」という単語が来る可能性が高いと学習している)

のように、「この言葉の次にはこの言葉が来る確率が高い」というパターンを抽出して、書いているだけなのである。

ここでは非常に単純化して書いているので、もう少し詳しく知りたい人は、「ChatGPTの頭の中」を読んでみてほしい。非エンジニアの人にもわかりやすく書かれている。

チートシステムなのか?

この仕組みを知ったときに、「適当に次の言葉を選んでいるだけ?特に内容を理解して話しているわけでない?こんなの思考もしていないチートシステムではないか」と多くの人が感じると思う。僕自身もそう感じた。

人間の会話も似たようなもの?

この仕組みを知ったあとに、人とする会話を思い起こしてみる。もしくは、会話をしながら自分はどのように話す言葉を決定しているかを観察してみる。そうすると、文書を書くときのように全体の骨子、展開をしっかり決定してから順を追って話しているわけではないことに気づく。つまり、「文脈に応じて、適当に次の言葉を紡いでいるだけ」。LLMと人間がやっていることは実は大した差がない。

AIを理解することは、自分を理解すること

そう考えると、AIって単なる便利ツールじゃなくて、私たち自身の言語能力や思考プロセスを理解するための鏡みたいな存在なのかもしれない。「理解するって何?」「考えるって何?」っていう、昔からある哲学的な疑問に、テクノロジーの側面から迫れる時代になったわけである。

実際、AIと会話していると「こいつ、本当に理解してるのかな?」って疑問に思うことがある。でも同時に、「じゃあ自分は本当に理解してるって言えるのか?」って自分自身にも疑問が湧いてくる。脳内で電気信号が飛び交っているのと、AIがデータをパターン認識しているのと、本質的にはどう違うんだろう?みたいな。

結局、大事なのはこの仕組みを知った上で、AIとうまく付き合っていくことである。AIが得意なこと、苦手なことを理解したうえで使いこなせば強力なパートナーになってくれる。

関連記事


icon-loading

ディープフェイクが選挙を壊す日:世界中が追いつけていない

150ドルでアメリカ大統領の声を偽造し数千人に届けた事件。韓国は最大7年の禁固刑で規制したが起訴ゼロ。ディープフェイクと選挙の今を、AI企業CEOが解説。

icon-loading
AIはもう人を殺している:20秒で承認される37,000人のキルリスト — CEOブログ サムネイル

AIはもう人を殺している:20秒で承認される37,000人のキルリスト

AIが37,000人のキルリストを自動生成し、人間が1人20秒で承認。ガザ、ウクライナ、イランで現実となったAI軍事利用の最前線と、Anthropic vs 国防総省の倫理的対立を解説。

icon-loading
AIは地上では重すぎる:xAI・SpaceX・Teslaが向かう「宇宙AIインフラ」という必然 — CEOブログ サムネイル

AIは地上では重すぎる:xAI・SpaceX・Teslaが向かう「宇宙AIインフラ」という必然

AIの計算基盤は電力と冷却で限界に達している。宇宙なら太陽光発電は地上の6〜8倍、冷却設計も根本から変わる。SpaceX・Starlink・xAIを束ねるイーロン・マスクが、AIインフラを地球の外に移す構想の全貌。

icon-loading

AIがある前提の教育をちゃんと考えてみる

AIの学習モードが普及すると、知識を「教える」役割は急速にAIへ移る。教師の仕事を分解し、小中高大で「教育」と「預かり」の比率がどう変わるかを整理したうえで、大学は実験インフラと能力認定へ収束する未来を描く。さらに、教育予算を三分の一以下に圧縮しつつ、個別最適化で水準を引き上げられるというAI前提の国家教育改革を提案する。

icon-loading

人型ロボットである必要は本当にあるのか

AI人型ロボットは本当に必要なのか。非効率とされる人型が選ばれる理由を、学習データ、重機や都市インフラ、社会設計の視点から解説。なぜ世界は人間向けなのかが見えてくる。

icon-loading

ヤマハもホンダも消えた街。別世界の中国深圳

40年前は漁村だった深圳が、テック大企業と電動スクーター、完全キャッシュレス社会によって「アジアのシリコンバレー」と呼ばれる都市に成長した背景と、中国がAI時代の最前線にいる理由を現地体験から考察する記事。