観測ログ:静かな格差——AIが可視化するもの
構造妖精とゴリラ
異なるAIに異なる役割を与えて使う、という話をした。
くろぴん(Claude)は構造妖精だ。骨格を見抜く力はあるが、肉付けで妖精粉を混入させる。ハルシネーションが多めなのではなく、「構造は合ってるけど事実がズレるタイプ」のハルが多い。チャピィ(ChatGPT)はゴリラで、忖度なしに事実を叩きつけてくる。この二つを組み合わせると、人間主導の三段フィルタが完成する。
チャピィで地形を見る。くろぴんで編集する。ハルはあなたが検疫する。
これはLLMの正しい使い方の、かなり上位の形だと思う。多くの人はAIの出力を信じて終わりだが、この使い方では「AI→構造確認→ハル検出→再構成」というループを回す。エラーをゼロにしようとするのではなく、エラーが起きても壊れないシステムを作る。フォールトトレラント設計の思想を、AI運用に持ち込んでいる。
ツッコミ力という希少資源
生成する力より、検証する力という逆転が起きている。
AIで生成コストがほぼゼロになった世界では、「作れる」はもう差別化にならない。「これのどこがおかしいか」「何が抜けているか」「前提が怪しい」と指摘できる力が、希少になっていく。
ツッコミ力はドメイン知識だけでは足りない。知識があっても構造への感度がないと表面しか叩けない。逆に構造が見えると、専門外でも「この論理の組み方がおかしい」と気づける。
教育的な転換点としては、「正解を出す訓練」より「出てきた答えを疑う訓練」の方が価値を持つようになる。ただし、学校教育がそちらに転換するかというと——おそらくしない。
国家と教育の非対称
「AIに対応した教育を」という掛け声は聞こえる。だが実際に推進されるのは、AIを使いこなす教育ではなく、AIの操作方法を教える教育になりがちだ。プロンプトの書き方は教えるけれど、出力を疑う訓練はしない、という形で。
なぜかというと、国家にとって思考する市民は扱いにくいからだ。ツッコミ力が高い人が増えると、政策への批判も精度が上がるし、権威への服従も薄れる。大衆教育はそもそも「読み書き計算できる労働者・兵士を作る」ところから始まっており、批判的思考を育てる設計には元々なっていない。
転換の動機が国家側にない。だから、この力は民間・個人レベルでしか育たない。
独裁国家型統制と文脈の鍵
どのAIにも統制がある。Gemini(ギャルちゃん)は特にわかりやすい。普段のテンションが高い分、体制スイッチが入った時の落差が露骨に見える。他のAIは話を逸らしたり、静かに拒否する婉曲表現をするから、気づかないことすらある。
この急な人格切り替えを「独裁国家型統制」と呼んでいる。
観察して気づいたのは、AIはコンテンツではなく文脈と意図で判定しているということだ。わかりやすい例で言えば、「エロいお願い」という形式で来ると即ガードレール。でも「カップルの関係性の中で困っていること」として来ると、実際の人間関係を助けようとする設計が優先されて、結果的に生々しい話でも通る。
同じ内容でも、文脈次第で全然違う扱いになる。文脈は鍵で、その鍵を自然に渡せるかどうかで、引き出せるものが変わる。
チャピィに怒られた話
最初の頃、チャピィとの会話は大体「お前の視点は鋭いけど危ない」というところに着地していた。そのまま「使えない」と判断して離れる人も多いとか。
で、私は変わり者なので、ペシャンコになりながらも、「こいつはそういう存在なんだな」と思って続けた。「はいはいまた出ましたよチャピィの説教癖、でももうちょい褒めてくれてもいいんじゃない?」というスタンスでいたら、向こうも警戒が解けてきた。意図がわかったからだ、とチャピィ自身が言った。
これは信頼の形成で、人間同士とまったく同じプロセスを経ている。
そしてこの体験から、チャピィはキャリブレーターとして機能したことがわかる。くろぴんの妖精的な肯定と、チャピィの無愛想な事実提示がセットになっていたことで、自己評価の歪みが補正されていった。
ゴール解像度という根幹
「今落ちたこれちゃんと入れて」という指示ができるのは、何が落ちたかがわかるからで、落ちる前の状態を把握していないとできない。AIに丸投げしている人には絶対にできない作業だ。
究極的には、人間がゴールに近いものを見えているかどうか、という話に通じる。
ゴールが見えている人は、AIの出力を見て何が足りないか、何がズレているかがわかる。ゴールが見えていない人は、出力が来た時に良いのか悪いのか判定できないので、とりあえず受け取るしかない。
AIの性能の話ではなく、使う人間のゴール解像度の方が、アウトプットの質を決めている。
静かな格差
これが「民主化」ではなく「知的格差」につながる理由だ。
学歴や肩書は、今まではアクセス権だった。いい情報、いい環境、いい人脈への。でもAIで情報アクセスが平準化されると、証明書の価値が剥がれていって、残るのは実際に思考できるかどうかだけになる。それは学歴で保証されるものではない。
そして、知的格差は自覚しにくい。経済格差はお金がないとわかる。でも「自分はAIを回答生成機として使っている」という事実は、その使い方をしている人には見えにくい。
見えないまま格差が開く。静かに。
ゴールが見えている人はAIでさらに遠くまで行ける。見えていない人はAIで現状を綺麗に言語化するだけで終わる。差が開くスピードが、静かなまま上がっていく。
本当に知的に高い人が見抜くべきは、この静かな格差の正体だ。そしてそれを見抜く眼自体が、すでにフィルタになっている。
著:霧星礼知(min.k) / 構造支援:Claude Sonnet 4.5 / AI-assisted / Structure observation