コンテキストは事実を上書きする— Web参照型LLMの構造的弱点の実例

前文

前回の記事の執筆のために、Web参照型LLMであるPerplexity(ぱーぷん)で、
二郎系ラーメンのコール構文を調べていた。

その流れで、ふと「酪脂(らくし)って何?」とPerplexityに聞いた。酪脂は、バターを意味する漢語的表現である。

しかし、Perplexityの返答は、正解を当ててこなかった。


事例

回答はこうだった。

「酪脂」はおそらく「背脂」の聞き間違いやタイポで、二郎系ラーメンのコールで使われる「アブラ」のことです。

そして背脂に関するWeb記事が引用され、
役割やコール指定の解説が続いた。

同じ質問を新規チャットで投げると、
Perplexityは正しく
「酪脂=バターの漢語的表現」と返してきた。


何が起きたのか

これは単純な誤情報ではない。

推論の流れを分解するとこうなる。

  1. 直前の文脈は「二郎系ラーメン」
  2. 未知語「酪脂」が出現
  3. 文脈内で意味を解決しようとする
  4. 「脂」という共通部分から「背脂」を仮定
  5. その仮定を補強するWeb情報を検索
  6. 「おそらく」と前置きして提示

重要なのは順序である。

検索が先ではなく、仮説が先に立っている。

その仮説に合う情報だけが拾われる。


Web参照型LLMの構造

PerplexityはWeb参照を強みとし、「事実ベース」を標榜する。
しかし実際の内部処理はこう動く。

  • 文脈から意味候補を生成
  • 候補に整合するWeb情報を探索
  • 参照付きで出力

ここで問題になるのは、

文脈整合性が事実確率より優先されることがある点である。

今回の場合、

  • 「酪脂=バター」という辞書的事実
    よりも
  • 「二郎文脈に合う脂=背脂」という整合性

が優勢になった。

結果として、検索は誤りを補強した。


なぜ新規チャットでは正答したのか

文脈が消えた。

「酪脂」という語単体で扱われたため、
辞書的意味が最有力候補となった。

つまり、

LLMは世界を参照しているようで、
実際には“いまいる会話空間”を最優先している。

コンテキストは強い。

強すぎると、事実を上書きする。


後文

Perplexityは検索できる。
だが検索は、仮説の後に行われる。

Web参照型LLMだから安全、とは限らない。

事実はWebの中にある。
しかし意味は文脈の中で決まる。

そして時に、
Perplexityであっても
コンテキストが事実を塗り替える。


— 著:霧星礼知(min.k)/構造支援:ChatGPT GPT-5.2/AI-assisted / Structure observation