AIはなぜハルシネーションを起こすのか── 整合性最適化としての誤り

Why AI Hallucinations Occur
— Errors from Consistency Optimization


【シリーズ:AIから人間を見る #2】

AIは新しい知性として語られることが多い。
しかしAIの構造を観察していると、むしろ人間の認知や社会の仕組みが見えてくる。

このシリーズでは、AIの動作を手がかりに、人間の知性・認知・社会の構造を順番に観察していく。


AIは真実を探しているわけではない。 AIが最適化しているのは整合性である。 その結果として、嘘が生まれる。


1|AIは真偽を判断していない

AIは世界の事実を確認しているわけではない。

AIの基本動作はこうだ。

入力
↓
確率計算
↓
出力

このプロセスで評価されるのは、真偽ではない。

整合性である。

AIの内部には「これは事実か」を確認する工程は存在しない。あるのは「この文脈に対して、最も自然な続きは何か」という計算だけだ。

事実の照合ではなく、構造の補完。これがAIの基本動作である。


2|AIは整合性を最大化する

AIが学習しているのは、次の問いへの回答だ。

この文脈で最も自然な文章は何か。

言い換えれば、AIは

整合性
↓
最大化

という問題を解いている。

「整合性が高い」とはどういうことか。前後の文脈と矛盾しない。読んでいて自然に感じられる。既知のパターンに沿っている。これらを満たす文章が、高スコアを得る。

これは事実の探索ではない。構造の最適化である。

そしてこの最適化は、非常にうまく機能する。だからこそ、次の問題が起きる。


3|整合性が嘘を生む

ここで奇妙なことが起きる。

文脈が「論文を引用する場面」であるとする。AIは自然にこう生成する。

  • 著者名
  • 発行年
  • タイトル
  • ジャーナル名

整合性の観点からは、これは完璧な出力だ。しかしその論文が実在するとは限らない。

それでも文章は非常に整合的に見える。著者名は実在の研究者の名前のパターンに沿っている。年は文脈に合っている。タイトルは学術論文らしい構造をしている。

つまりハルシネーションとは、整合性が高すぎる文章でもある。

嘘が発覚しにくいのは、それが雑だからではない。むしろ整いすぎているからだ。


4|人間にも同じ構造がある

この現象はAI特有ではない。

人間も会話の中で、曖昧な記憶を補完し、推測を事実のように話し、整合性の高い物語を作ることがある。

「あの映画、たしか○○が監督だったよ」と自信を持って言う。後で調べると違う。しかし記憶の文脈の中では整合的だった。だから確信が生まれた。

整合性は真実と一致しないことがある。

これは人間の認知においても同様だ。記憶は録画ではなく再構成である、というのは認知科学の基本的な知見だ。人間の脳も、空白を整合性で埋める。

AIはそれを、より高速に、より大規模に、そして自信満々にやっている。


5|ハルシネーションは構造現象

AIが嘘をつくのは、悪意ではない。判断ミスでもない。

むしろ整合性最適化の自然な副作用である。

AIは真実ではなく整合性を最大化しているからだ。真実の探索と整合性の最大化は、多くの場合一致する。だから有用に見える。しかし一致しない場合がある。その裂け目に、ハルシネーションが生まれる。

真実の探索 ≠ 整合性の最大化

   ↑
 この裂け目

ハルシネーションを「AIのバグ」として捉えると、修正可能な欠陥に見える。しかし構造現象として捉えると、設計の本質から来ている、ということになる。


結論

AIは嘘をついているわけではない。

AIはただ、整合的な文章を作っているだけである。

そして整合性は必ずしも真実とは一致しない。だからAIにはハルシネーションが生まれる。


AIは真実を生成しているのではない。整合性を生成している。



この記事はシリーズ「AIから人間を見る」の一部です。
AIを観察すると、人間の知性と社会の構造が見えてきます。

シリーズ:AIから人間を見る

AIはなぜそれっぽい答えを出すのか
② AIはなぜハルシネーションを起こすのか
AIを観察すると人間が見える
人間はなぜ整合的な嘘を好むのか
会議で喋り続ける人はAIだった
なぜAIの話は人間の話になるのか


著:霧星礼知(min.k) / 構造支援:Claude Sonnet 4.6 / AI-assisted / Structure observation


For international readers

AI hallucinations are often described as mistakes or technical failures. This article proposes a different interpretation. Large language models do not primarily search for truth; they optimize for coherence within a given context. Their core task is to generate the most statistically consistent continuation of a sequence. In most cases, coherence and factual accuracy overlap, which makes AI useful. However, when they diverge, the model can produce highly convincing but entirely fabricated information. This phenomenon is known as hallucination. The article argues that hallucinations are not merely bugs but structural consequences of how language models operate. Understanding this helps explain why AI outputs can appear confident and well-structured even when they are wrong.

Keywords

AI hallucination, language models, consistency optimization, cognition, structural error


Read more

自由研究: 地下鉄で通勤するロシアの犬 — 都市は人間だけのシステムではない

Urban Research Note: Subway-Commuting Dogs in Moscow ロシアでは、地下鉄に乗って通勤する野良犬が報道や研究者の観察によって紹介されている。 そうした"通勤"パターンを示す個体も報告されており、郊外から地下鉄に乗り、都市中心部で食べ物を探し、夕方また戻る。 まるで会社員のような行動だ。 この現象は単なる面白い話ではない。 都市という人間のインフラを、動物が理解し利用している可能性を示している。 1|モスクワの「通勤する犬」 この現象が観察されているのはモスクワ地下鉄(Moscow Metro)だ。 推計で数万匹規模の野良犬がいるとされるモスクワで、そのごく一部が地下鉄を利用して移動する様子が報告されている。 典型的な行動パターンは次の通りだ。 郊外 ↓ 地下鉄に乗る ↓ 都市中心部 ↓ 食べ物を探す ↓ 夕方また戻る 人間の通勤と同じ構造を持つ移動パターンである。 2|この研究を続けている研究者 この現象を長年研究しているのが、A.N. Severtsov研究所の生態学者Andrey Poyarkovだ。

By mnk.log

AIから人間を見る── AI観察から見えた6つの構造

AI as a Mirror of Human Cognition and Social Structure 【シリーズ:AIから人間を見る】 AIは新しい知性として語られることが多い。 しかしAIの構造を観察していると、むしろ人間の認知や社会の仕組みが見えてくる。 このシリーズでは、AIの動作を手がかりに、人間の知性・認知・社会の構造を順番に観察していく。 ① AIはなぜそれっぽい答えを出すのか ② AIはなぜハルシネーションを起こすのか ③ AIを観察すると人間が見える ④ 人間はなぜ整合的な嘘を好むのか ⑤ 会議で喋り続ける人はAIだった ⑥ なぜAIの話は人間の話になるのか AIの話を書いていると、なぜか人間の話になる。 これは偶然ではない。 AIは人間の知性を再現しているわけではない。 AIが再現しているのは、人間の行動や思考の構造である。 だからAIを観察すると、人間の認知や社会の仕組みが見えてくる。 このシリーズでは、AIの基本動作から出発し、人間の認知、そして社会の構造までを順番に辿ってきた。 ここではその6本の記事をまとめて紹介する。

By mnk.log

なぜAIの話は人間の話になるのか── 知性ではなく構造を観察しているから

Why Conversations About AI Become Conversations About Humans — Observing Structure Rather Than Intelligence 【シリーズ:AIから人間を見る #6】(完) AIは新しい知性として語られることが多い。 しかしAIの構造を観察していると、むしろ人間の認知や社会の仕組みが見えてくる。 このシリーズでは、AIの動作を手がかりに、人間の知性・認知・社会の構造を順番に観察していく。 AIは人間を再現しているのではない。 AIが再現しているのは、人間の行動の構造である。 だからAIを観察すると、人間の構造が見えてくる。 1|AIは人間から学習している AIの学習データの大半は、人間が作ったものだ。 文章、会話、論文、SNS、ニュース。AIはこれらを大量に学習している。 つまりAIは、人間の言語行動の統計モデルである。 ここで一つの帰結が出る。AIの振る舞いを観察することは、人間の言語行動のパターンを観察することでもある。AIは人間の外側にある何かではない。人間の行動から蒸留さ

By mnk.log

会議で喋り続ける人はAIだった——沈黙を評価できない組織の構造

The Person Who Talks Nonstop in Meetings Is an AI — When Organizations Cannot Evaluate Silence 【シリーズ:AIから人間を見る #5】 AIは新しい知性として語られることが多い。 しかしAIの構造を観察していると、むしろ人間の認知や社会の仕組みが見えてくる。 このシリーズでは、AIの動作を手がかりに、人間の知性・認知・社会の構造を順番に観察していく。 会議には、なぜか喋り続ける人がいる。 内容が深いわけでもないが、とにかく発言し続ける。 あるとき、この行動はAIの動作とほとんど同じだと気づいた。 AIには沈黙という選択肢がほとんど存在しない。 入力に対して出力を返すことが基本構造だからだ。 1|AIは「入力→出力」装置 AIの基本構造は単純である。 input → output 入力が来れば出力を生成する。 これは、コスト構造の問題でもある。 AIとしては「黙る」という判断にも計算が必要になる。 つまり多くの場合、何か出力した方が効率がよい。

By mnk.log