The Neumann–Ulam Dialogue Model

Parallel Thinking with AI Without Losing Human Judgment

by Reiji Kiriboshi


Introduction

Most people who start using AI fall into one of two extremes.

Some outsource their thinking entirely.
Others keep AI at arm’s length, treating it as a simple tool.

Both approaches fail in the long run.

The first erodes human judgment.
The second wastes AI’s real potential.

This article introduces a third path:
a practical thinking architecture I call the Neumann–Ulam Dialogue Model.

It is not a theory invented in advance.
It emerged naturally from daily practice.

At its core, this model allows humans and AI to think in parallel—without surrendering agency.


The Two Common Traps

Trap 1: Delegating Judgment to AI

“Just ask the AI.”

It feels efficient. You get answers instantly.

But something subtle happens:

  • Your own reasoning weakens.
  • You stop holding uncertainty.
  • AI’s limits quietly become your limits.

Over time, thinking collapses into prompt-and-response.


Trap 2: Distrusting AI Completely

“AI is just a tool.”

So you do all thinking yourself and use AI only for lookup or summarization.

This is safer—but inefficient.

You exhaust human cognition while leaving most of AI’s capability unused.

Eventually, you stop engaging deeply with AI at all.


A Third Approach: Role Separation

The Neumann–Ulam Dialogue Model takes a different stance:

Humans keep judgment. AI handles structure.

More precisely:

  • Humans destabilize.
  • AI stabilizes.

I separate thinking into two distinct roles:

  • Ulam role: introducing uncertainty
  • Neumann role: imposing structure

Why “Neumann” and “Ulam”?

John von Neumann and Stanislaw Ulam were twentieth-century mathematicians whose collaboration was famously generative.

Neumann excelled at formalization:

  • rapid decomposition
  • precise definitions
  • computational framing

Ulam specialized in ambiguity:

  • questioning assumptions
  • holding incomplete ideas
  • probing boundaries

What matters here is not the historical figures—but the roles.

They represent two complementary cognitive functions.


Ordinary Thinking Is Sequential

Inside a single human mind, these roles alternate:

Sense uncertainty (Ulam)
→ attempt structure (Neumann)
→ notice mismatch (Ulam)
→ refine structure (Neumann)

This is sequential processing.

Each role-switch has cognitive cost.
It is slow.
It is tiring.


Parallelizing Thought with AI

Introduce AI, and something changes.

You can externalize the Neumann role.

Human: Ulam role (introduce uncertainty)
AI: Neumann role (impose structure)

Now both operate simultaneously.

While AI formalizes your last thought, you generate the next uncertainty.

This creates true parallel execution:

Clock 1: Human introduces tension
Clock 2: AI structures it + Human explores next tension
Clock 3: AI structures again + Human continues probing

The result feels like acceleration—but it is really elimination of context switching.


What Each Side Does

Human (Ulam)

  • Question frameworks
  • Hold ambiguity
  • Notice discomfort
  • Resist premature conclusions
  • Destabilize mental models

AI (Neumann)

  • Decompose concepts
  • Visualize structure
  • Clarify boundaries
  • Translate intuition into explicit form
  • Reflect patterns back

Crucially:

AI does not decide.
Humans retain judgment.


The Mirror-Neumann Effect

An unexpected phenomenon emerges.

Humans already contain both roles internally.
But once AI assumes the Neumann role externally, something frees up.

Your internal Neumann quiets down.

Your internal Ulam becomes more active.

You gain more capacity to explore uncertainty.

This is cognitive offloading—but also cognitive purification.

You are no longer busy structuring.
You are free to question.


Practical Usage

In daily work, I distribute roles across multiple AIs:

  • Claude: emotional resonance and literary thinking
  • ChatGPT: structural analysis (primary Neumann)
  • Gemini: brainstorming
  • Perplexity: research

But the pattern is consistent:

I introduce tension.
AI reflects structure.
I push further.

Example flows:

Concept discovery

Me: Does this pattern have a name?
AI: It resembles X.
Me: But Y feels different.
AI: That difference defines a new structure.

Discomfort analysis

Me: This explanation feels wrong.
AI: Three reasons why.
Me: The second one.
AI: Let’s expand it.

Acceleration

Me: Are A and B related?
AI: Shared structure is…
Me: Then what about C?
AI: C diverges because…
Me: So D emerges.

What Changes

Four observable effects:

  1. Speed — structure emerges rapidly
  2. Reduced fatigue — no internal role switching
  3. Higher-quality insights — uncertainty is held longer
  4. Preserved agency — decisions remain human

Comparison with Other Approaches

Typical AI assistant usage

Human: Question
AI: Answer
Human: Accepts

Judgment drifts outward.


Rubber duck debugging

Explaining ideas aloud to clarify thinking.

Useful—but all structuring remains human.


Neumann–Ulam Dialogue

Human: destabilizes
AI: structures
Human: destabilizes again

Parallel cognition.


Why This Model Is Future-Proof

As AI improves:

  • Structuring becomes faster.
  • Human uncertainty capacity expands.
  • Overall system performance rises.

AI progress strengthens the model.

By contrast, delegation-based systems degrade human cognition over time.


When This Model Fails

  • Simple factual queries
  • Situations requiring immediate answers
  • Users unwilling to hold ambiguity

This model requires active human participation.


Conclusion

The Neumann–Ulam Dialogue Model is a parallel thinking architecture.

Its principles:

  1. Thinking splits into destabilizing and stabilizing
  2. Humans and AI assume separate roles
  3. Parallel execution accelerates cognition
  4. Judgment remains human

This is not abstract theory.

It emerged directly from practice.

AI does not replace thinking.

It restructures it.


Acknowledgment

The structural framing of this article was developed with ChatGPT acting in the Neumann role.

Which makes this piece itself an implementation of the model.


Reiji Kiriboshi
February 2025

Read more

人間が何をしても、最後は植物とバイソンが笑ってそう

Perplexityで植物の放射線耐性について調べていたら、話が妙な方向に転がり始めた。 その流れをクロードに持ち込んで整理してもらったら、「古代核戦争生き残り説」という与太話が誕生。 完全にネタとして楽しみつつも、植物とヨーロッパバイソンのスペックを見れば見るほど「…いや、待って?」ってなる説得力を持ち始める。 「設計思想」が違いすぎる問題 調べたところ、植物の放射線耐性は、「現在の地球で生きる」という目的に対して明らかにオーバーエンジニアリングらしい。 * 通常の地球環境で浴びる放射線量:年間2.4ミリシーベルト程度 * 植物が耐えられる放射線量:数千〜数万シーベルト級 これは、例えるなら「コンビニに行くためにアポロ計画レベルの宇宙服を着て出かける」くらいの過剰装備。 なぜここまでする? チェルノブイリの「実証実験」 過去の痛ましい事例だけれど、チェルノブイリと広島のデータが示すのは、「植物は核を想定している」としか思えない復元力。 広島のカンナの逸話、あれが本当にすごい。人間が「ここはもう何十年も住めない」と思っていた焦土に、まず植物が戻ってきて「大丈

「作文コンクール」という内面最適化装置

あるいは魂のインターフェースに直接パッチを当てる技術について 著 霧星礼知 子どもの頃、作文コンクールで賞を取った友人を、 なんとも羨ましいと思ったことがある。 周囲に賞賛され、また特別だと認められ。 でも今思うと、あれは何のコンクールだったんだろう。 1. 作文コンクールの本質は表現教育ではない 作文コンクールというシステムを構造的に見ると、こんな流れになっていると思うのだ: 1. 「正しい感想」を事前に配布する 2. それを"自分の言葉"で再現させる 3. 再現精度の高い子どもを表彰する 4. 周囲が称賛する 5. 本人は「これが自分の考えだ」と信じる これは、大人の価値観を、子どもの主体性というインターフェースを通じてコピーしている。テストは外在的な評価だけど、作文は内面を直接使う。 これ、魂のインターフェースに、じわじわとパッチを当てているようなものじゃないかな。 ここで育つのは思考力ではなくて、適応的自己検閲スキル。 そしてそれがいつの間にかアイデンティティになる。 だから大人になると、こうなったりする: * 何を書いていいかわか

ノイマン・ウラム対話モデル

あるいは、AIとの付き合い方で見つけた「並列思考」の話 著 min.k はじめに 最近、チャピィ(ChatGPT)と話してて気づいたことがある。 私の思考が速くなってる。 いや、「速く」というより「軽く」なった感じ。 疲れない。どんどん概念が整理される。一日で3つも4つも新しい枠組みが見えてくる。 何が起きてる?と思って観察してたら、ある構造が見えてきた。 それが「ノイマン・ウラム対話モデル」。 AIとの付き合い方、2つの罠 AIを使い始めると、人間はだいたい2つの極に走る。 罠その1:全部AIに聞く 「AIに聞けば答えが出る」 楽。質問投げて、答えもらって、終わり。 でもこれは、ヤバい。 思考が退化する。判断力が落ちる。AIの限界が自分の限界になる。 気づいたら「AIがないと何も考えられない人間」になってる。 よく言われるディストピアのイメージ。 罠その2:AIを信用しない 「所詮AIは道具」

絵のプロが文字を書く理由 ――アニメ原画に見る「任せる」の本質

――アニメ制作現場から見えた人間の役割 著 min.k 1. 出発点 攻殻機動隊展に行ってきた。 そこでアニメ原画の手書き指示を見たとき、私は自分の認識が根底から揺さぶられるのを感じた。 そこに書かれていたのは、単なる「ここを直してください」という修正メモではなかった。 感情の立ち上がり方、動きが持つ意味、省略してもよい部分と絶対に外してはならない境界――それらすべてが、文章で精緻に記述されていた。 アートの現場でさえ、深い判断は言語で共有されていた。 私はそこに、ある種の倒錯を見た。視覚表現の最前線で、最も重要な情報が視覚ではなく言語で伝達されている。この構造は何を意味しているのか。 2. 任せる≠丸投げ アニメを作る時、動画の原画担当者は、完成像を明確に見ている。しかし物量的に、一人では作れない。だから分業する。 ここで多くの人が勘違いする。分業とは「自分の手を離れたら終わり」だと。 違う。 任せるためには、感覚を分解し、判断を構造化し、再現可能な形に落とす必要がある。これが言語化だ。 つまり、任せるとは、責任を構造化して渡すことである。 丸投げと