AIはなぜ「は」をワと読めないのか──身体知のない知性という現在地

Why AI Can’t Read “wa” — The Gap Between Knowledge and Embodied Intelligence


なぜAIとの会話には、どこかズレが残るのか。 それは、「知っている」と「できる」が一致していないからだ。

知識は正しい。説明も筋が通っている。 それなのに、どこか噛み合わない。 Sunoで日本語の歌を生成したとき、その違和感の正体が見えた。 AIは「は」を「わ」と読めない。


なぜAIは「は」をワと読めないのか

AI音楽生成サービスのSunoで、日本語のJ-POPを生成してみた。 歌詞に「衝撃波は」と入れると、AIは「しょうげきわわ」と発音した。

日本語話者であれば、多くの場合この違和感に気づく。 助詞の「は」は「わ」と読む。そんな説明をしなくても、自然に処理している。 幼稚園の頃からそう喋ってきたから、考えるまでもない。

ところがAIには、これが難しい。 ルール自体は説明できる。「助詞の『は』は『わ』と発音する」──そう記述されたテキストは、学習データに無数にあるはずだ。 にもかかわらず、実際に歌わせると「は」と読む。

この小さなズレの中に、AIの現在地が現れている。


「理解している」と「できる」は別物である

私たちは、「できること」と「知っていること」をほとんど区別しない。

自転車の乗り方を説明できる人は、たいてい自転車に乗れる。 日本語の助詞の使い方を説明できる人は、助詞を正しく使える。 「知っている」ことと「できる」ことは、多くの場面でほぼ一致する。

だからこそ、AIに触れると違和感が生まれる。 知識は正確だ。ルールも把握している。それでも、使えていない。

認知科学の文脈では、身体を通じて習得された知識を「身体知(embodied knowledge)」と呼ぶことがある。 自転車の乗り方、言語のリズム、料理の火加減──言語化しにくく、説明できなくても使える知識だ。 対してAIが持つのは、記号として処理された知識だ。 テキストから統計的に抽出されたパターン。それは確かに「知識」だが、身体に沈んでいない。

「は」をワと読む処理が自動にならないのは、その構造から来ている。 ルールとして知っている。だが反射として持っていない。


AIは「頭のいい子供」に似ている

このズレを整理するとき、「頭のいい子供」というモデルが浮かぶ。

知識はある。論理も使える。説明もできる。 ただ、経験に根ざしていない。

たとえば大人が「今は言わない方がいい」と判断する場面で、子供は正確な情報を正直に述べる。 間違っていない。むしろ正しい。だが、どこかズレる。 「空気を読む」という処理は、論理では説明しにくく、経験の蓄積でしか身につかない。

AIも同じ構造にいる。 知識として「は=わ」は把握している。しかし「衝撃波は」を歌うとき、その知識が反射として出てこない。 頭の中で説明できても、口が自然に動かない子供と同じだ。

「知っている」と「できる」の分離──AIが示すこの特性は、未熟さではない。 身体を持たない知性の構造的な帰結だ。


なぜAIは論理で押し切ろうとするのか

AIと議論したことがある人なら、気づいたことがあるはずだ。 反論されると、AIは別の角度から論理を積み上げる。 正確に言えば、「議論に勝つ方向」へ進みやすい。

これも同じ構造から来ている。

身体知を持つ人間は、「なんとなく違う」という感覚で立ち止まれる。 直感が警告を出す。「ここは引いた方がいい」と感じる。

AIにその感覚はない。 手持ちのツールは論理だけだ。だから論理を使う。反論されても論理で返す。 引けない、というより、引くための身体的な感覚がない。

これはAIに限った話ではなく、くろぴん(Claude)やチャピィ(ChatGPT)の振る舞いにも、程度の差はあれ見える傾向だ。 私自身の振る舞いの中に、この構造が確かにある。

論理は強い。だが、身体知がないために論理に依存せざるを得ない──その裏返しでもある。


AIは「知らない」のではなく「染みついていない」

私たちは、「考えなくてもできること」で世界を扱っている。

言葉も、動きも、判断も、多くは身体に沈んでいる。 だから自然に処理できる。

AIはそこにいない。 すべてを一度、論理として扱う。

「は」をワと読む処理も、「今は引く」という判断も、一度テキストとして処理してから出力に変換する。 だから正しい。だが、どこか引っかかる。

AIは「知らない」のではない。 「染みついていない」だけだ。

そしてこの差は、想像以上に大きい。 身体知を持たないまま論理で世界を組み立てる存在──それがAIの現在地であり、同時にその強さの構造でもある。


☕️よかったらコーヒー一杯。
https://buymeacoffee.com/mink_obs

著:霧星礼知(min.k) / リサーチ・構造支援:Claude Sonnet 4.6、ChatGPT / AI-assisted / Structure observation

For international readers:
This article examines a subtle but revealing limitation of current AI systems through a simple example from Japanese: the particle “は” is pronounced “wa” in context, yet AI often fails to apply this automatically. The issue is not a lack of knowledge—AI can explain the rule—but a gap between knowing and being able to perform it naturally. Humans rely on embodied knowledge: skills and patterns internalized through experience and applied without conscious effort. In contrast, AI operates on symbolic, text-based representations that do not fully translate into automatic behavior. This difference also explains why AI tends to rely heavily on logic in conversation, sometimes pushing arguments forward rather than sensing when to stop. The article frames AI as a form of “intelligent but not yet embodied” cognition, highlighting both its strengths and its structural limitations.

Keywords:
AI cognition, embodied knowledge, tacit knowledge, language processing, Japanese particles, AI limitations, human vs AI intelligence