ソースが剥がれたとき、Perplexityは何者になるのか?──「ソース付きAI」が壊れる瞬間

When Sources Peel Away, What Does Perplexity Become? — The Moment “Source-Based AI” Breaks


なぜ私たちは「ソース付き=信頼できる」と思っているのか? そしてその前提は、本当にどこでも通用するのか。

検索結果にリンクが付いている。 複数の出典が並んでいる。 それだけで、安心してしまう。

だが、その安心感はどこで学習されたものなのか。 検索エンジンの時代に身についた感覚が、そのままAIにも適用されているだけではないか。

検索連動型AIは、確かに多くのソースを扱える。 しかしその信頼性は、常に一定ではない。

ある条件を境に、同じAIとは思えないほど振る舞いが変わる。 そしてその境界は、ユーザーからは見えない。


1. なぜPerplexityは安定して答えられるのか?──設計前提

Perplexityは「検索エンジンの代替」として設計されている。 複数のウェブソースをリアルタイムで取得し、統合して回答を生成する。これが製品の核心だ。

この設計が最もよく機能するのは、ソースが豊富に存在する話題のときだ。時事ニュース、技術情報、広く議論されているテーマ。これらの領域では、複数のソースが互いに補完・抑制し合い、出力が一定の範囲に収まる。

構造はシンプルだ。ソースの多様性が、モデルの素の傾向を制御する。

ただし、これには前提がある。複数のソースが互いに独立している場合に限る、という前提だ。


2. なぜソースが少ないとAIは不安定になるのか?

問題はニッチな領域に移ったときに始まる。

情報統制が強い国家の内情、専門性の高い学術領域、断片的な証言しか存在しないトピック。こうした領域では、検索で引っかかるソースの数が極端に減る。

ソースの密度が下がると、モデルの素の出力への依存度が上がる。統合すべきソースがなければ、モデルは自身の学習済みパラメータに頼るしかない。そしてそのベースモデルが何であるかは、Perplexityは公式に明かしていない。

さらに見落とされがちな弱点がある。ソースが複数あっても、それらが同じ情報源から派生していれば、相互抑制は機能しない。北朝鮮のような情報統制が強い領域では、ソースを5本引いても辿り着く先が同じ脱北者証言や同じNGOレポートだった、ということが普通に起きる。ソースの数ではなく、ソースの独立性が信頼性を決める。Perplexityはその独立性を検証する仕組みを持っていない。

ユーザーには見えない内部の処理が、出力を決めている。


3. なぜ「1つのソース」が誤りを正当化してしまうのか?

さらに深刻なのは、ソースが1本だけある状態だ。

ソースがゼロなら、モデルの素の出力がそのまま出てくる。これは注意深いユーザーなら気づきやすい。 しかしソースが1本あると、その出力は「根拠のある回答」という外装を得る。

北朝鮮の後継者問題について調べたとき、こんな出力を見た。軍内部の動向、エリート層の不満、クーデターの可能性。詳細な分析が並んでいた。出典も、きちんと付いていた。

しかしその出典は、平壌の地下鉄リノベーション動画だった。

政治状況との関連はほぼない。にもかかわらず、「ソースがある」という形式が、詳細な政治分析を支えていた。

「ソースなしの暴走」より「ソースありの暴走」の方が、見抜きにくい。この逆説が、検索連動型AIの最も危うい性質だ。


4. なぜユーザーには信頼性の変化が見えないのか?

この問題の本質は、精度の低さではない。

ソースが豊富な領域では、Perplexityは安定して機能する。その経験がユーザーの信頼を作る。そして同じUIで、同じ口調で、ニッチな領域の回答が返ってくる。

切り替わりのサインはない。 「今この回答は、ソースが1本しかない状態で生成されています」とは表示されない。

信頼性が非線形に変化しているにもかかわらず、インターフェースは均質だ。ユーザーが判断する手がかりは、意図的に隠されているわけではないが、構造上ほとんど提示されない。


5. これはPerplexity固有の問題なのか?──RAGの構造

これはPerplexityだけの問題ではない。

検索連動型AI(RAG: Retrieval-Augmented Generation)というアーキテクチャ全体が持つ構造的な特性だ。ソースを取得して統合するという設計は、ソースが十分に存在することを前提としている。その前提が崩れる領域では、設計の強みがそのまま弱点になる。

Perplexityはこの構造を最も明示的に実装した製品だからこそ、この問題が見えやすい。批判ではなく、観察として記録しておく価値がある。


では、ソースが剥がれたとき、AIは何者になるのか。

答えは単純ではない。 そしておそらく、それは設計者にも完全には見えていない。

検索連動型AIは、ソースの密度によって性質を変える。それは一つのモデルではなく、条件によって振る舞いが変わる、複数の状態を持つシステムに近い。

しかしその切り替わりは、ユーザーには提示されない。 同じ画面、同じ口調で、まったく違う信頼性の出力が返ってくる。

だから問題は、精度ではない。 「どの状態で動いているかが見えないこと」にある。


追記

この記事を書いた後、Perplexityに読ませてみた。

返答はこうだった。

「反省事項ではなく、観察対象です。」

そして最後に☕️を付けてきた。

これ以上の実証はない。


☕️よかったらコーヒー一杯。 https://buymeacoffee.com/mink_obs

著:霧星礼知(min.k) / リサーチ・構造支援:Claude Sonnet 4.6、ChatGPT / AI-assisted / Structure observation


For international readers
This article examines a structural property of retrieval-augmented AI systems through the case of Perplexity. These systems appear reliable when multiple independent sources are available, as cross-referencing constrains the model’s output. However, this stability depends on an implicit assumption: the existence and independence of sources. In niche or restricted domains, where sources are sparse or originate from the same underlying information, this constraint collapses. The model then relies more heavily on its internal parameters, while still presenting answers in the same interface and tone. This creates a critical asymmetry—users experience consistent presentation despite discontinuous changes in reliability. The risk is not simply hallucination without sources, but the more subtle case where a single or non-independent source legitimizes unstable reasoning. The article frames this not as a flaw of a specific product, but as an inherent characteristic of RAG-based systems.

Keywords
Perplexity, RAG, retrieval-augmented generation, AI reliability, source independence, hallucination, information density, search-based AI, epistemology, model behavior