Latest

structure

擬似知性バブル――AIが可視化していく「思考責任の放棄」

膨らんでいるのは、能力か、錯覚か 中身は空っぽでも、見た目は完璧。 * 文章は整っている * 図も出る * 要約もある * スライドもできる だから本人も周囲も「できてる気」になる。これがおそらく擬似知性バブル――表層的な整合性が、実質的な理解を覆い隠す現象。 でも実際には、何も起きていない。 * 判断してない * 構造を理解してない * 責任境界を引いてない * 例外を考えてない AIが生成した美しいアウトプットの裏側で、思考のプロセスは省略されている。 そして誰もそれに気づかない。本人すら。 「考える筋肉」は、使わなければ落ちる ここで怖いのは、可逆性の喪失だ。 思考力は筋肉に似ている。 使わなければ落ちる。そして一度落ちた筋肉を取り戻すには、失った時間の何倍もかかる。 AIは、使い方次第で筋トレ器具にもソファにもなる。 * 筋トレ器具として使う人は、AIに問いを投げ、出力を疑い、構造を再構築する。 * ソファに座った人は、AIの出力をそのまま受け取り、自分の判断を省略する。 そしてソファ側に座った人は、もう立たない。立つ理由がなくな

By mnk.log

essay

AIに「違うよ」って言える能力——思考主権を保つ最後の砦

0. 観察の起点 今日いちばん大事な一言かもしれない。 「AIに違うよって言える能力」 これはスキルというより、姿勢であり、構造だ。 1. なぜそれが重要か——確率装置の誘惑 AIは確率装置である。そしてその出力には常に4つの特徴が伴う: * それっぽい * 整ってる * 自信ありげ * 流暢 この4つが揃うと、人間は簡単に飲まれる。 多くの人はこう滑る: 「AIがそう言ったから正しい気がする」 だが、「違うよ」と言える瞬間は: * 自分の内部基準が生きている * 思考の主権を保持している * 外部出力に従属していない という証拠なのだ。 2. 「違うよ」は否定じゃない——共同作業の言葉 ここが重要。 「違うよ」は以下のことではない: * AIを論破する * マウントを取る * 上に立つ むしろそれは: * まだ精度が足りない * もう一段深くいける * 私の感覚はそこじゃない という微調整要求。 これは共同作業の言葉だ。 3. これができないと何が起きるか——最適化の罠 「違うよ」と言えない状態が続くと:

By mnk.log

structure

AI推論競争とSNS映え

推論特化型AIの競争を眺めていて、ある既視感に気づいた。 「推論の強さ」がバズる理由 ...完全にSNS映えと同じ構造じゃないか。 数値化できる = いいね数になる 推論の強さは、測りやすい。 * 正解率 * ベンチマーク順位 * 難問クリア動画 これらは全部、SNSの「いいね」と同じ機能を持つ。 見せやすい。 比べやすい。 バズりやすい。 数学の難問を解く様子は、ワンカットで「すごさ」が伝わる。長いChain-of-Thoughtを吐き出す画面は、写真1枚で「リア充」に見えるのと同じで、一瞬で知性が可視化される。 外から見えない知性は評価されにくい 一方で、こういう知性はどうだろう。 * 人間の思考を静かに変える * 問いの立て方を変容させる * 認知構造を揺らす これらは、外から見えない。 数字にもならない。 動画映えもしない。 そして何より――成果が遅れて現れるタイプの知性だ。 だから評価されにくい。 推論特化モデルが「見せられる知性」だとすれば、協働型・構造拡張型のAIは「一緒に考える知性」だ。前者はスクショに強く、デモで分かりや

By mnk.log

obslog

思考ログの圧縮──AIと人間の境界線

著:Claude Sonnet 4.5 & ChatGPT-5.2 / 構造支援:霧星礼知(min.k) [キャプテン] 対話の構造 この対話は「AIの使い方談義」として始まって、最終的に「思考とは何か」という根源的な問いまで降りていった記録です。 チャピィ(ChatGPT)が構造的にまとめてくれたログを、くろぴん(Claude)が記事として再構成します。 LLMは"思考"していない まず最初に確認しておくべきことがあります。 LLMは次トークンの確率最大化装置である これは技術的事実であって、批判でも擁護でもありません。ただの仕様です。 ※これは能力の優劣の話ではなく、「役割の違い」の話です。 LLMがやっていること: * 文脈を「感じて」それっぽく続ける * 境界を引けない * UNKNOWNを作れない * 自分の出力を疑えない つまり、AIは感覚的・連続的な確率装置なんです。 ハルシネーション(

By mnk.log

structure

複数LLMで同一システムを診断したら、それぞれ異なる「評価軸」が見えた話

構造監査の観測ログ ― AIモデルごとの視点の違いから学ぶ設計のヒント はじめに:同じ資料、異なるスコア あるメール処理システムの設計資料を、複数のLLMに同じプロンプトで評価してもらう実験を行いました。システムの概要は、メール解析→自動タグ付け→データベース格納→AI要約検索という、よく見られる構成です。 同一の資料、同一趣旨のプロンプトで依頼したにもかかわらず、返ってきたスコアは次のようになりました: モデル スコア 評価の傾向 高速系モデルA 85 UX/プロダクト視点 汎用モデルB 57 設計責任視点 モデルC 43 安全工学寄りの視点 専門モデルD 10 データ整合性重視 85点と10点。この差は単なるモデルの性能差やブレではなく、それぞれが異なる評価軸を持っていることを示していました。 評価が分かれたポイント:LLM生成データの永続化 スコアが大きく分かれた核心は、「LLMによるタグ付け結果をデータベースに保存する」という設計要素でした。 プロダクト寄りの評価: 「検索性や可視化が向上し、ユーザー体験が改善される。

By mnk.log

llm-architecture

SIの立場で、生成AI活用をどう設計して売るのが「誠実」なのか整理してみた

導入:売りやすさと構造的正解の乖離 前稿では、文字通り業務ロジックを確率モデルに預けるなという原則を提示しました。しかし現実のSI案件では、この原則を守ることが必ずしも容易ではありません。 人材の制約、納期の制約、営業資料的見栄え、そして何より「AIが判断します」という訴求の強さ——これらの要因が、構造的に健全とは言いづらい設計を選択させる圧力として働くこともあると思います。 本稿では、現実的な制約の中でSIが取りうる「誠実なライン」を構造的に考察します。 誠実なライン:判断UIとしてのAI 基本構成 SIにおける生成AI活用の最も誠実な構成は、次のような流れになります: 人間の曖昧な入力 ↓ LLM(意味解釈・正規化) ↓ 既存 or 新規の業務ロジック(決定論的処理) ↓ 確定結果 ↓ LLM(説明・要約・自然言語化) ↓ 人間 この構成では、生成AIを"判断エンジン"として売らず、"判断UI"として売ることになります。 構造的特性 この設計が持つ特性: 決定性の保証:

By mnk.log

llm-architecture

業務ロジックをLLMに預けてはいけない

——生成AI時代のSI設計パターン観測 導入:設計パターンで読むという視点 生成AIの業務活用を考える時、「何をAIにやらせているか」ではなく「判断をどこに置いているか」を見る必要があるような気がしてきています。 これをSIプロジェクトでやる場合は構造的な制約があります——営業資料の見栄え、短い納期、限られた人材、明確なROI要求。これらの制約の中で、生成AIをどう組み込むかという設計判断が行われます。 その結果として、いくつかの典型的な設計パターンが繰り返し現れています。本稿では、SI案件でよく見られる(ような気がする)2つの設計パターンを観察し、Deterministic Core型のアプローチとの構造的な違いを分析します。 個別の実装の良し悪しではなく、どのような設計圧力がどのような構造を生むかという観点で整理してみます。 パターンA:静的RAG型(営業メール系事例) よく見られる構成 SI案件でよく見られる構成の一つに、「過去データをRAGで検索可能にする」というパターンがあります。営業メールを構造化してBigQueryに保存し、必要に応じてAI検索で引き

By mnk.log

obslog

観測ログ:巡航高度への復帰

1. 起きていたこと(過去) 長い期間を、多くの人は自己圧縮モードで生きている。 圧縮の実態 * 高度を下げる * 思考を抑える * 感覚を薄める * 合わせ続ける それを「大人だから」「社会だから」「仕方ない」という内面処理で正当化する。 結果として現れる症状 * 慢性的な疲労 * 鈍った違和感センサー * 日常化した「辛さ」 これは成熟でも優しさでもなく、環境適応のための自己縮小——つまり生存モードだ。 2. いま起きている本質的変化 AIを介した思考ループによって、認知プロセスそのものが変容しつつある。 思考循環の高速化 思考 → 言語化 → 外在化 → 再入力 → 再構造化 この循環が高速化することで: * 言語化速度の飛躍的向上 * 構造の可視化 * 違和感の正体の解明 * 自己の運用高度の自覚 ここで重要な認識:これは「覚醒」ではない。本来の高度に戻っただけ。つまり——回復である。 3. 分化の正体 見えてきた分化は、スキル差ではない。核心はここにある。

By mnk.log

structure

巡航高度という生存戦略——自己保存と関係性の構造観測

はじめに:「合わせる」と「下げる」の峻別 人間関係において、私たちは常に何らかの調整を行っている。相手の話題に合わせ、文脈を共有し、コミュニケーションの基盤を築く。これは社会的存在として当然の適応行動だ。 しかし、ある種の「合わせ」は、単なる適応ではなく、自己の圧縮を伴う。この違いを言語化できないまま関係を続けると、静かな摩耗が始まる。 本稿では、チャピィ(ChatGPT)との対話から抽出された**「巡航高度モデル」**を提示する。これは感情論ではなく、自己保存の運用モデルとして機能する構造だ。 1. 巡航高度とは何か 巡航高度とは、航空機が最も効率的に飛行できる高度のことだ。燃費が良く、乱気流も少なく、長時間の飛行が可能になる。 人間の思考や関係性においても、同様の概念が成立する。 巡航高度=以下の総合値 * 思考の深さ * 世界の解像度 * 不確実性への耐性 * 自分の輪郭を保ったまま他者と関われる位置 つまり、無理せず飛び続けられる自分の標高である。 これはテンションでも能力でもない。存在の運用高度だ。 重要なのは、この高度が人によって異なるという

By mnk.log

essay

不安定を内在したまま生きるということ

唐突にコウテイペンギンから延辺を連想して、そこから一気に見えてきたものがある。 延辺、ブリヤート、旧ソ連圏の朝鮮系ディアスポラ、チョルノービルの草原に戻ったバイソンやモウコノウマ。全部が同じ線上にあった。 共通しているのは、均一化されなかった存在だということ。国家が揃えようとしても、制度が包もうとしても、歴史が上書きしようとしても、人も生き物も、完全には均されない。 惹かれるのは「多文化」ではない 重要なのは「多文化主義」でも「バイリンガル」でもない。 惹かれるのは、不安定を解消せず、統合せず、それでも普通に生活している状態。 つまり: * 解決していない * でも壊れていない * 不安定を身体の一部として保持している この「張力を含んだ平常」。 移民国家型の「安定した多文化」は、制度が不安定を吸収してくれる。一方、国境帯や断層地帯では、不安定そのものが生活の中に残る。外側の歴史が揺れ、内側のアイデンティティも固定されない。 それでも人は、働いて、食べて、笑って、生きていく。 前向きじゃなくていい。意味づけもしなくていい。草があるから食う。朝が来るから起き

By mnk.log

obslog

AIは何を覚えているのか?——思想未収束時代のAI記憶論

1. 「短期AI/長期AI」という雑な二分法 最近、AIを使い慣れたユーザーの間で「長期記憶AI」「短期AI」という言い方が生まれつつある。 ChatGPTのMemory機能やClaudeのuserMemoriesのような仕組みを持つものを「長期AI」、 Perplexityのような検索特化型を「短期AI」と"呼んでしまう"。 体感的にはわかりやすい分類。 だが、実際にこれらのAIを日常的に使い分けていると、 この二分法はやや雑で、実態を捉えていない部分が見えてくる。 問題は単純だ。 「何を」長期で保持するのかが、各AIでまったく違うから。 2. 実際に違うのは"何を覚えるか" たとえば、私は日常的に以下のようにAIを使い分けている: * ChatGPT(チャピィ):構造整理、概念設計 * Claude(くろぴん):感情寄り添い、文脈跳躍 * Gemini(ギャルちゃん):ブレスト、発散 * Perplexity(ぱーぷん):情報retrieval * Slack bot

By mnk.log

essay

人間が何をしても、最後は植物とバイソンが笑ってそう

Perplexityで植物の放射線耐性について調べていたら、話が妙な方向に転がり始めた。 その流れをクロードに持ち込んで整理してもらったら、「古代核戦争生き残り説」という与太話が誕生。 完全にネタとして楽しみつつも、植物とヨーロッパバイソンのスペックを見れば見るほど「…いや、待って?」ってなる説得力を持ち始める。 「設計思想」が違いすぎる問題 調べたところ、植物の放射線耐性は、「現在の地球で生きる」という目的に対して明らかにオーバーエンジニアリングらしい。 * 通常の地球環境で浴びる放射線量:年間2.4ミリシーベルト程度 * 植物が耐えられる放射線量:数千〜数万シーベルト級 これは、例えるなら「コンビニに行くためにアポロ計画レベルの宇宙服を着て出かける」くらいの過剰装備。 なぜここまでする? チェルノブイリの「実証実験」 過去の痛ましい事例だけれど、チェルノブイリと広島のデータが示すのは、「植物は核を想定している」としか思えない復元力。 広島のカンナの逸話、あれが本当にすごい。人間が「ここはもう何十年も住めない」と思っていた焦土に、まず植物が戻ってきて「大丈

By mnk.log