Theory
AIはなぜハルシネーションを起こすのか── 整合性最適化としての誤り
Why AI Hallucinations Occur — Errors from Consistency Optimization 【シリーズ:AIから人間を見る #2】 AIは新しい知性として語られることが多い。 しかしAIの構造を観察していると、むしろ人間の認知や社会の仕組みが見えてくる。 このシリーズでは、AIの動作を手がかりに、人間の知性・認知・社会の構造を順番に観察していく。 AIは真実を探しているわけではない。 AIが最適化しているのは整合性である。 その結果として、嘘が生まれる。 1|AIは真偽を判断していない AIは世界の事実を確認しているわけではない。 AIの基本動作はこうだ。 入力 ↓ 確率計算 ↓ 出力 このプロセスで評価されるのは、真偽ではない。 整合性である。 AIの内部には「これは事実か」を確認する工程は存在しない。あるのは「この文脈に対して、最も自然な続きは何か」という計算だけだ。 事実の照合ではなく、構造の補完。これがAIの基本動作である。 2|AIは整合性を最大化する AIが学習しているのは、次の問いへの回答だ。