ThinkingEssay
コンテキストは事実を上書きする— Web参照型LLMの構造的弱点の実例
前文 前回の記事の執筆のために、Web参照型LLMであるPerplexity(ぱーぷん)で、 二郎系ラーメンのコール構文を調べていた。 その流れで、ふと「酪脂(らくし)って何?」とPerplexityに聞いた。酪脂は、バターを意味する漢語的表現である。 しかし、Perplexityの返答は、正解を当ててこなかった。 事例 回答はこうだった。 「酪脂」はおそらく「背脂」の聞き間違いやタイポで、二郎系ラーメンのコールで使われる「アブラ」のことです。 そして背脂に関するWeb記事が引用され、 役割やコール指定の解説が続いた。 同じ質問を新規チャットで投げると、 Perplexityは正しく 「酪脂=バターの漢語的表現」と返してきた。 何が起きたのか これは単純な誤情報ではない。 推論の流れを分解するとこうなる。 1. 直前の文脈は「二郎系ラーメン」 2. 未知語「酪脂」が出現 3. 文脈内で意味を解決しようとする 4. 「脂」という共通部分から「背脂」を仮定