draft - 空間可視化における Gemini とGPT(チャピィ)の差

今回のRRX可視化で見えたのは、能力差というより
アウトプット設計パイプラインの違いだった。

Geminiの挙動(観測)

  • 座標取得:できる
  • 投影変換:できる(EPSG:3857など)
  • 描画:できる

ただし流れは一貫して:

要求 → 最短実装 → 出力

結果として:

  • 緯度経度プロット
  • 投影座標のXY散布図
  • Google Mapピン

など、

「技術的に正しいが、人間的に地図にならない」
アウトプットに落ち着く。

Geminiにとって:

  • 座標 = データ
  • 地図 = UI(Google Maps)

という扱いになっている。


チャピィ側の挙動

同じ要求に対して:

  • 投影を入れる
  • 国境ポリゴンを重ねる
  • aspectを固定する
  • 路線をレイヤとして重畳する

という

要求 → 人間の空間認知を想定 → 構造化 → 出力

の流れを踏む。

つまり:

  • 座標 = 空間
  • 地図 = 幾何構造+文脈

として扱っている。


決定的な差

Gemini:

正しく描いたか?

チャピィ:

人間に“地図”として伝わるか?

ここ。

Geminiは「計算タスクとして完結」
チャピィは「認知タスクとして完結」


面白い副産物

Geminiは最終的に:

  • My Maps用CSV
  • Google Mapピン

という実務導線を提示してきた。

これは

可視化を外部UIに逃がす

というGoogle的アプローチで、
実用面ではかなり強い。

一方チャピィは:

内部で構造を再構成して図を生成

研究・構造理解寄り。


暫定まとめ

これは優劣というより役割分化:

  • Gemini:使わせるAI(UI連携・永続)
  • チャピィ:考えさせるAI(構造化・空間再構成)

そしてユーザー側が
「構造図」と「実用マップ」を分けて使い始めた瞬間、
比較はAI性能ではなくワークフロー設計になった。


著:霧星礼知(min.k)/構造支援:ChatGPT GPT-5.2/AI-assisted / Structure observation