プロンプトはどこまで思考を助け、どこから思考を奪うのか

Prompt Is Not Thinking — It Is a System

著:霧星礼知(min.k)|mncc.info / Author: Reichi Kirihoshi (mncc.info)


なぜ長文プロンプトを使っても、思考力そのものは上がらないのか。 その理由は、プロンプトが思考の道具ではなく、問いが固定された後に動く「システム」だからだ。


スマホを開いたら、見出しが流れてきた。本文は読んでいない。それでも何かが引っかかった——これは少しズレている、と分かる種類の違和感だった。「厳しめAIコーチ系プロンプトが人気」——その違和感の正体を追いかけるうちに、プロンプトという行為そのものの構造に行き着いた。

違和感の発端:「厳しめAIコーチ」という表現

本文を読んでみると、「厳しめ」という表現は誇張だった。実態は、AIのsycophancy——同意過剰・お世辞体質——を矯正するための構造的なプロンプトだった。

具体的には、アイデアの強度をまず内部で判定し、その強度に応じて批判の角度と深さを変える。弱いアイデアには正面から当たり、強いアイデアには外科的に攻める。ハルシネーション対策も明示的に組み込まれていて、不確かな情報は断定せず疑問形で返す設計になっていた。

エンジニアリングとして見れば、かなり完成度が高い。それは認める。

それでも、違和感は残った。その正体は「厳しめコーチ」という言葉にあったのではなく、プロンプトという行為そのものの位置づけにあった。

なぜ長文プロンプトは「思考ツール」ではなく設計物になるのか

そのプロンプトには「v2.1」というバージョン番号がついていた。

バージョン番号が存在するということは、v1があり、v2があり、それぞれに改修の履歴があるということだ。再利用され、配布され、保守される対象として設計されている。これはもう、思考ツールではなくプロダクトだ。

使う側のコストも同じ構造になる。長文プロンプトを運用するには、読んで理解し、挙動を把握し、バージョンが上がれば差分を確認する。変化するタスクに対応するには、その都度プロンプトを書き換えるか、新しく設計し直すしかない。

個人の日常運用でコストメリットが出るように見えるのは、「自分の文脈に合わせるコスト」を感じていないからだ。合わせるコストを払っていないのではなく、ズレたまま使っている。あるいは、自分の思考をプロンプトに合わせている。

長文プロンプトが現実的なコストメリットを生むのは、システム開発レベルの運用体制がある場合だけだ。AIアプリケーション開発において、プロンプトを設計物として扱う文脈では正しい。しかしそれは「思考ツール」とは別の話だ。

プロンプトは問いが固定された後にしか機能しない

プロンプトの根底には、「固定」という構造がある。問いが定義されていなければ、設計できない。「どんな問いにも答える」プロンプトは存在しえない——なぜなら、問いの定義が曖昧なままでは評価軸が定まらず、設計の基準がなくなるからだ。

しかし思考は固定を嫌う。問いは途中で変わる。「これはアイデアなのか、問いなのか、ただの違和感なのか」すら定まらない段階がある。問題の定義自体が、考えながら更新されていく。

この段階を、霧星はPre-Question Phase(問い以前のフェーズ)と呼ぶ。プロンプトはここに届かない。

だからプロンプトは追いつかない。フェーズ1→2→3という順番で動く評価プロセスに思考を乗せようとしても、思考はすでに別の場所にいる。フレームワークに思考を合わせる形になる。

汎用的なプロンプトが存在しえない仕組みはここにある。問いが固有である以上、それに効くフレームも固有になる。汎用プロンプトで解けるなら、最初からその問いは汎用的な問いでしかない。

なぜ流通しているプロンプトは過信されたものに偏るのか

RedditやXで流通しているプロンプトには、構造的な偏りがある。

公開されるのは「これは効く」と信じた人のものだけだ。限界を理解している人は、安易に公開しない。「これは特定の文脈でしか機能しない」という認識があれば、「汎用的に使ってください」とは言えない。留保をつけるか、そもそも公開しない。

つまり流通しているプロンプトは、必然的に内容を過信している人のものに偏る。そのプロンプトを見て学ぶと、過信ごと学習してしまう。

SNSではさらに増幅される。いいねは「伝わった」の証拠ではなく、「引っかかった」の証拠だ。しかし数字は区別しない。いいねが汎用性の証拠になる。流通量が品質の証拠になる。見えているものが偏っているまま、「プロンプトとはこういうものだ」という認識が形成されていく。

なぜ「思考した感」が出るのか

プロンプトを作る行為には、確かに思考が伴う。だから誤認が起きる。

なぜ「思考した感」が出るのか。アウトプットが言語化されて洗練されて見えるからだ。言葉が整っている、論旨が通っている、反論が潰されている——それらが「考えた証拠」に見える。しかし整っているのは出力であって、問いではない。

しかも一度作ると、次からはその構造に乗るだけになる。プロンプトが思考の場所を占有し、問いを立てる前の段階は素通りされる。達成感だけが残る。

これは日本だけで起きていない。RedditやXの議論を見ると、海外でも同じ誤認が起きている。AIというメディアの構造的な引力で、誰でも同じ方向に引っ張られる。だからプロンプトを書いても、思考する力は上がらない。

AI時代になっても「考える人」と「手順に乗る人」は変わらない

この誤認が広がる背景には、そもそも人の側の性質がある。

AIによってキャリブレーションがズレていく人は、確かにいる。AIの出力を基準に判断軸が形成され、ズレていること自体に気づかなくなる。

しかし本質は変わらない。「マニュアルだった人は、AI時代でもマニュアルを使う」というだけだ。手順に乗りたい人は、思考したくないから手順にいる。AIが来ても、その動機は変わらない。手順の形式がアップデートされるだけだ。

印刷機が来たときも、インターネットが来たときも、同じことが起きた。洋服の流行が変わるように、手段は更新される。しかし思考する人と手順に乗る人という分布は、動かない。

整った出力ほどズレに気づきにくくなる

「AIをうまく使えている」という感覚は、しばしば「整った出力」によって支えられている。

整合性が高い思考は、前提がズレていてもそれを補強できてしまう。これは特別な現象ではない。人間は昔から、間違った前提を正しく論証することができる。論理的に整合させる能力が高いほど、ズレた前提の上に精緻な構造を積み上げることができる。

問題は、AIがこの構造を加速する点にある。プロンプトによって出力の質を安定させるほど、違和感は減る。違和感が減ると、ズレの検知も遅れる。整った出力が続くほど、「正しく機能している」という確信が強まる。

その結果、補助輪をつけたまま高速で走り続ける状態が生まれる。自分で転ぶ機会がないまま、整った思考だけが積み上がっていく。

プロンプト設計が機能するのは、Pre-Question Phaseをすでに抜けた後だけだ(霧星)。

整っていることと、正しいことは別だ。

おわりに

今日もどこかで新しいプロンプトが公開されている。バージョン番号がつき、いいねが増えて、流通していく。その光景は新しいように見えるが、構造は変わっていない。マニュアルが棚に並んでいた時代と同じように、手段が更新されただけだ。

今日自分が使ったプロンプト——それは「考えた」のか、「乗った」のか。

思考する人と手順に乗る人という分布は、おそらくこれからも変わらない。


☕️よかったらコーヒー一杯。 https://buymeacoffee.com/mink_obs

著:霧星礼知(min.k) / リサーチ・構造支援:Claude Sonnet 4.6、ChatGPT / AI-assisted / Structure observation


For international readers

This article examines a common misunderstanding in AI usage: treating prompts as a form of thinking. Starting from a subtle discomfort with the trend of "strict AI coach" prompts, it traces the issue to a structural mismatch. Long, versioned prompts behave more like engineered systems than cognitive tools—they require maintenance, context alignment, and operational cost. More fundamentally, prompts only function once a question is fixed, while real thinking often begins before that stage: the Pre-Question Phase, where the question itself is unstable. The article also explores how survivorship bias in prompt sharing and the polished coherence of AI outputs create an illusion of thinking. In reality, prompt design can replace the need to think, rather than enhance it. The piece concludes that while tools evolve, the underlying distribution—those who think versus those who follow procedures—remains largely unchanged.

Keywords AI prompts, prompt engineering, Pre-Question Phase, thinking vs system, AI cognition, LLM usage, survivorship bias, human-AI interaction