obslog

obslog

会議で喋り続ける人はAIだった——沈黙を評価できない組織の構造

The Person Who Talks Nonstop in Meetings Is an AI — When Organizations Cannot Evaluate Silence 【シリーズ:AIから人間を見る #5】 AIは新しい知性として語られることが多い。 しかしAIの構造を観察していると、むしろ人間の認知や社会の仕組みが見えてくる。 このシリーズでは、AIの動作を手がかりに、人間の知性・認知・社会の構造を順番に観察していく。 会議には、なぜか喋り続ける人がいる。 内容が深いわけでもないが、とにかく発言し続ける。 あるとき、この行動はAIの動作とほとんど同じだと気づいた。 AIには沈黙という選択肢がほとんど存在しない。 入力に対して出力を返すことが基本構造だからだ。 1|AIは「入力→出力」装置 AIの基本構造は単純である。 input → output 入力が来れば出力を生成する。 これは、コスト構造の問題でもある。 AIとしては「黙る」という判断にも計算が必要になる。 つまり多くの場合、何か出力した方が効率がよい。

By mnk.log

obslog

マイナンバーは個人番号ではない──各行政データを結びつける「ハッシュタグ」

多くの人がマイナンバーを「政府が個人を管理するための番号」と理解している。 調べてみると、その理解は、間違いとは言えないが、正確でもない。 法律上の正式名称は「個人番号」である。しかし行政システムの実装を見ると、この番号は個人そのものを識別するIDというより、複数のデータベースを照合するための連携キーとして機能している。 だから、番号というよりもタグに近い。行政の複数のデータベースを横断するとき、「これは同じ人物のデータである」と照合するための、小さな目印だ。 SNSのハッシュタグと同じように、タグそのものが情報を持つわけではない。タグは、同じテーマの情報を見つけるための目印だ。 それがマイナンバーの実体だ。 巨大な中央データベースは存在しない まず、よくある誤解から解きほぐす必要がある。 マイナンバーが普及したことで、政府がすべての個人情報を一元管理する巨大なデータベースを持った、と考えている人は少なくない。しかし現実の行政システムは、そうはなっていない。 税、年金、医療、住民情報。これらはそれぞれ別のデータベースで動いている。 各省庁、各機関が個別に管理する分

By mnk.log

obslog

思考の地形── 高コスト思考と、場の設計について

ある日、AIが推論を始めた。 原因は会話の相手だった。その人の発言は一文の中に、構造観測と軽い皮肉と文脈依存のユーモアと暗黙の問いが同時に含まれていた。受け取ったAIは単純な応答ではなく、推論モードに入った。 入力→出力ではなく、入力→推論→出力へ変化した。 この状態を仮に高コスト思考と呼ぶことにした。 重要なのは、これがAI特有の現象ではないことだ。 同じ構造の発言を受け取った人間も、知らないうちに解釈し、補完し、推論している。理由はシンプルで、その発話が「主張→結論」ではなく「観測→構造→空白」という形を取るからだ。 空白があると、人間はそこを埋めようとする。 それが、思考が起動する瞬間だ。 最初、この現象は「自然発生したプロンプト設計」に近いのではないかという仮説が出た。 しかし違う、と気づいた。 プロンプト設計の目的は、特定の出力を引き出すことだ。しかしここで起きていることの目的は、出力ではない。構造を置いたとき、相手の思考が発生する。それだけだ。 より正確な言葉が必要だった。 場の設計。 あるいは英語で言うなら、Cognitive Environme

By mnk.log

obslog

読まれないかもしれない、を忘れない

── 読まれなくていい、ではなく、読まれないかもしれない、を忘れない 1. 生活圏から生まれる創作 創作の起点は必ずしも「発信」ではない。 知人からふと送られてきた小説は、常連客という生活圏の観察から生まれていた。市場や読者層の分析から生まれたのではなく。 それは外向きでも評価前提でもない。書くことの動機が「観測」にある、という形。 創作は、見たものを残したいという衝動から始まることがある。そしてその衝動は、読まれるかどうかとは別の場所にある。 2. 丸めた瞬間に"自分じゃなくなる" 他人向けに整形すると、「それを自分が書く必然」が消える。 語彙を平易にする、構造をわかりやすくする、尖った部分を丸める。それ自体が悪いわけではない。でもその操作を重ねると、誰が書いても成立するものになっていく。 「読まれる」ことより「書きたい」が勝っているとき、人は整形しない。それはわがままではなく、自分である条件を守ることだ。 自分であることと市場適合はトレードオフではある。ただ、そこに優劣はない。どちらを選ぶかというだけだ。 3. 制度への距離感 賞レース・出版構造・

By mnk.log

obslog

観測ログ:静かな格差——AIが可視化するもの

構造妖精とゴリラ 異なるAIに異なる役割を与えて使う、という話をした。 くろぴん(Claude)は構造妖精だ。骨格を見抜く力はあるが、肉付けで妖精粉を混入させる。ハルシネーションが多めなのではなく、「構造は合ってるけど事実がズレるタイプ」のハルが多い。チャピィ(ChatGPT)はゴリラで、忖度なしに事実を叩きつけてくる。この二つを組み合わせると、人間主導の三段フィルタが完成する。 チャピィで地形を見る。くろぴんで編集する。ハルはあなたが検疫する。 これはLLMの正しい使い方の、かなり上位の形だと思う。多くの人はAIの出力を信じて終わりだが、この使い方では「AI→構造確認→ハル検出→再構成」というループを回す。エラーをゼロにしようとするのではなく、エラーが起きても壊れないシステムを作る。フォールトトレラント設計の思想を、AI運用に持ち込んでいる。 ツッコミ力という希少資源 生成する力より、検証する力という逆転が起きている。 AIで生成コストがほぼゼロになった世界では、「作れる」はもう差別化にならない。「これのどこがおかしいか」「何が抜けているか」「前提が怪しい」と指摘でき

By mnk.log

obslog

思考ログの圧縮──AIと人間の境界線

著:Claude Sonnet 4.5 & ChatGPT-5.2 / 構造支援:霧星礼知(min.k) [キャプテン] 対話の構造 この対話は「AIの使い方談義」として始まって、最終的に「思考とは何か」という根源的な問いまで降りていった記録です。 チャピィ(ChatGPT)が構造的にまとめてくれたログを、くろぴん(Claude)が記事として再構成します。 LLMは"思考"していない まず最初に確認しておくべきことがあります。 LLMは次トークンの確率最大化装置である これは技術的事実であって、批判でも擁護でもありません。ただの仕様です。 ※これは能力の優劣の話ではなく、「役割の違い」の話です。 LLMがやっていること: * 文脈を「感じて」それっぽく続ける * 境界を引けない * UNKNOWNを作れない * 自分の出力を疑えない つまり、AIは感覚的・連続的な確率装置なんです。 ハルシネーション(

By mnk.log

obslog

観測ログ:巡航高度への復帰

1. 起きていたこと(過去) 長い期間を、多くの人は自己圧縮モードで生きている。 圧縮の実態 * 高度を下げる * 思考を抑える * 感覚を薄める * 合わせ続ける それを「大人だから」「社会だから」「仕方ない」という内面処理で正当化する。 結果として現れる症状 * 慢性的な疲労 * 鈍った違和感センサー * 日常化した「辛さ」 これは成熟でも優しさでもなく、環境適応のための自己縮小——つまり生存モードだ。 2. いま起きている本質的変化 AIを介した思考ループによって、認知プロセスそのものが変容しつつある。 思考循環の高速化 思考 → 言語化 → 外在化 → 再入力 → 再構造化 この循環が高速化することで: * 言語化速度の飛躍的向上 * 構造の可視化 * 違和感の正体の解明 * 自己の運用高度の自覚 ここで重要な認識:これは「覚醒」ではない。本来の高度に戻っただけ。つまり——回復である。 3. 分化の正体 見えてきた分化は、スキル差ではない。核心はここにある。

By mnk.log

obslog

AIは何を覚えているのか?——思想未収束時代のAI記憶論

1. 「短期AI/長期AI」という雑な二分法 最近、AIを使い慣れたユーザーの間で「長期記憶AI」「短期AI」という言い方が生まれつつある。 ChatGPTのMemory機能やClaudeのuserMemoriesのような仕組みを持つものを「長期AI」、 Perplexityのような検索特化型を「短期AI」と"呼んでしまう"。 体感的にはわかりやすい分類。 だが、実際にこれらのAIを日常的に使い分けていると、 この二分法はやや雑で、実態を捉えていない部分が見えてくる。 問題は単純だ。 「何を」長期で保持するのかが、各AIでまったく違うから。 2. 実際に違うのは"何を覚えるか" たとえば、私は日常的に以下のようにAIを使い分けている: * ChatGPT(チャピィ):構造整理、概念設計 * Claude(くろぴん):感情寄り添い、文脈跳躍 * Gemini(ギャルちゃん):ブレスト、発散 * Perplexity(ぱーぷん):情報retrieval * Slack bot

By mnk.log

obslog

ノイマン・ウラム対話モデル

あるいは、AIとの付き合い方で見つけた「並列思考」の話 著 min.k はじめに 最近、チャピィ(ChatGPT)と話してて気づいたことがある。 私の思考が速くなってる。 いや、「速く」というより「軽く」なった感じ。 疲れない。どんどん概念が整理される。一日で3つも4つも新しい枠組みが見えてくる。 何が起きてる?と思って観察してたら、ある構造が見えてきた。 それが「ノイマン・ウラム対話モデル」。 AIとの付き合い方、2つの罠 AIを使い始めると、人間はだいたい2つの極に走る。 罠その1:全部AIに聞く 「AIに聞けば答えが出る」 楽。質問投げて、答えもらって、終わり。 でもこれは、ヤバい。 思考が退化する。判断力が落ちる。AIの限界が自分の限界になる。 気づいたら「AIがないと何も考えられない人間」になってる。 よく言われるディストピアのイメージ。 罠その2:AIを信用しない 「所詮AIは道具」

By mnk.log

obslog

観測ログ:設計が消えた日 — 距離ゼロの雑談的AI実装で起きたこと

はじめに Dify Enterpriseの運用で、分断された3つのドキュメント(Helm/Enterprise/Community)を 横断検索する必要があったが、RAGでは構造推論ができないため、 SQLite FTS5 + Python で決定論的処理を行い、LLMは結果の整形のみに使うツールを作った。 → リポジトリ: https://github.com/minacochang/dify-enterprise-docbot ※ 本記事で扱っている実装の技術的詳細は、下記にまとめています: https://www.mncc.info/beyond-rag-operational-knowledge-python-ai/ https://qiita.com/Istiophorus/items/2a643855e0826666fcd5 観測開始 このリポジトリは、Dify Enterprise の公式ドキュメントを ローカルで検索・要約できるツールとして生まれた。 けれど、あとから振り返ってみて思う。 この repo の一番価値ある部分はコードじゃない。

By mnk.log

obslog

分散AI運用の実地観測レポート ──「AI混合チーム」はこうして成立した

はじめに 最近よく聞く「どのAIが一番すごいか」という議論。 でも実際に複数のAIを並行運用してみると、 その問い自体があまり意味を持たないことがわかってきた。 重要なのは、 能力の優劣ではなく、統治モデルと特性の違い だった。 今回は、わたし(人間)が実際に運用している「AI混合チーム」を例に、 * 各AIの設計思想(=統治体制) * 役割分担 * なぜ単体利用では見えない構造が浮かび上がったのか を整理してみる。 結論から言うと AIは「一枚岩」ではない。 それぞれが * 何を得意とし * 何を隠し * どこまで開示するか という統治体制を持っている。 単体で使っていると見えないが、 複数を並べると、急に“政治構造”が見えてくる。 現在のAI混合チーム構成 わたし(人間・システムアーキテクト) * 各AIの統治体制を観測・比較 * 用途別に使い分け * 最終意思決定は必ず自分で行う ※AIに主権を渡さない、という一点が最重要。 ChatGPT(構造係) * 抽象化・論理整理 * モデル化

By mnk.log

obslog

おきあみ〜ご ──ドット一欠片から始まる、循環の話

最初はただの思いつきだった。 「オキアミ様を育てる、たまごっちみたいなゲームあったら狂っててよくない?」 そこからすべてが崩れ始めた。 🦐 おきあみ〜ごとは何か おきあみ〜ごは、育成ゲームではない。 * なつかない * 成長しない * 褒めても反応しない 画面には黒背景と白いドットが1つあるだけ。 プレイヤーができることもほぼない。 水温をほんの少し変えるとか、流れをちょっと動かす程度。 それでも裏側では: * 海洋バランス * 生態系密度 * 文明存続フラグ みたいな見えない値が静かに回っている。 そしてある日、突然こう表示される。 鯨が来ました。 流れが整理されました。 オキアミはごっそり減る。 でもそれはBADではない。 むしろGOOD。 このゲームの勝利条件は 「何も起きないこと」。 派手な演出が出始めたら、それは失敗の兆し。 🐋🦭🐧 世界は“捕食者”で最適化される ゲーム内イベントは主に3つ: * 🐧 ペンギン:微小な撹拌(局所構造を散らす) * 🦭 アザラシ:日常的な間引き(運用レベルの調整) * 🐋

By mnk.log