ThinkingEssay

なぜ私たちはそう考えてしまうのか。AIとの対話や日常の違和感を手がかりに、思考の癖や知性のあり方を探る。知識と身体、生成と判断のズレを観測する。AI時代における「考える」という行為を問い直すための記録。/ Thinking in AI age.

ThinkingEssay

コンテキストは事実を上書きする— Web参照型LLMの構造的弱点の実例

前文 前回の記事の執筆のために、Web参照型LLMであるPerplexity(ぱーぷん)で、 二郎系ラーメンのコール構文を調べていた。 その流れで、ふと「酪脂(らくし)って何?」とPerplexityに聞いた。酪脂は、バターを意味する漢語的表現である。 しかし、Perplexityの返答は、正解を当ててこなかった。 事例 回答はこうだった。 「酪脂」はおそらく「背脂」の聞き間違いやタイポで、二郎系ラーメンのコールで使われる「アブラ」のことです。 そして背脂に関するWeb記事が引用され、 役割やコール指定の解説が続いた。 同じ質問を新規チャットで投げると、 Perplexityは正しく 「酪脂=バターの漢語的表現」と返してきた。 何が起きたのか これは単純な誤情報ではない。 推論の流れを分解するとこうなる。 1. 直前の文脈は「二郎系ラーメン」 2. 未知語「酪脂」が出現 3. 文脈内で意味を解決しようとする 4. 「脂」という共通部分から「背脂」を仮定

By mnk.log

ThinkingEssay

プロンプト型から対話型へ——AI活用の考え方を変える

AIの使い方について、多くの場面で語られるのは「プロンプト最適化」だ。 いかに良い指示文を書くか、いかに一発で狙った出力を得るか。この文脈では、AIはあくまで“高性能な実行装置”として扱われる。 しかし、このアプローチが本質的に機能するのは、すでに正解が定義されている場合に限られる。 SQLを書かせたい。 文章を要約させたい。 決まったフォーマットのレポートを生成したい。 こうしたケースでは、 * ゴールが明確 * 良し悪しの評価軸が固定 * 出力を即座に判定できる という条件が揃っている。 この領域でプロンプト型は非常に強い。 ただし同時に、このアプローチは重要な性質を持っている。 正解が分かっているなら、人間が自分で書くこともできる。 つまりプロンプト型AIとは、「既知の問題を高速に展開する装置」だ。 優れた道具であることは確かだが、それはすでに地図が存在するときに限って有効な羅針盤でもある。 正解が存在しない領域 一方、現実の多くの思考・創作・設計の場面では事情がまったく違う。 * ゴールは最初から決まっていない * 評価軸は途中で変わる *

By mnk.log