「AIにできないこと」を問うには、技術的限界とビジネス的限界の二つの視点が必要だ
——インセンティブのない方向に、AIは進化しない
AI limits reconsidered — technical vs incentive-driven constraints
AIが何かを「できない」とき、私たちはそれを技術的限界として読む。しかしその「できない」の中には、技術的に実現可能だが誰も作っていないものが、かなりの割合で混ざっている。見た目が同じだから、区別できない。
この区別ができないまま「AIの限界」として処理してしまうのは、地図の読み方を間違えることに近い。AIが何に向かって進化し、何に向かわないのかを読むためには、技術の話だけでは足りない。もう一つの軸が必要だ。
第1章:コンコルドが教えてくれたこと——「できる」と「やる」は別の問いだ
超音速旅客機コンコルドは、1976年から2003年まで運航した。マッハ2、大西洋横断3時間半。技術的フロンティアとして、それは完成していた。
それでも退場した。
騒音規制で就航できる空港が限られ、燃費は通常機の数倍、チケット価格は一般旅客の手が届かない水準だった。乗客の絶対数が確保できず、採算が成立しなかった。2000年のパリ墜落事故がとどめを刺したが、経済的な退場はその前から決まっていたと言っていい。
「できること」と「やること」は、別の問いだった。技術的フロンティアとビジネス的フロンティアは、同じ場所にない。コンコルドはその二つのフロンティアが一致しなかったとき、技術がどういう末路を辿るかを示している。
この構造は、AI開発にそのまま持ち込める。
AIは莫大なリソースを消費するビジネスだ。学習コスト、インフラコスト、研究人材——どれも安くない。夢はあっても、無駄なことはできない。開発リソースは常に、インセンティブのある方向に配分される。収益につながるか、競争優位を生むか、規制対応として必要か。そのいずれでもない方向には、技術があっても開発は向かない。
コンコルドが飛び続けるインセンティブを失ったように、AIも作られるインセンティブを持たない機能は、技術的に可能であっても現れない。
第2章:AIはリソースを食うビジネスである
AIが「夢の技術」として語られるとき、その裏側にある経済構造はあまり語られない。
大規模言語モデルの学習には、膨大な計算リソースが必要だ。データセンターの電力消費、GPUクラスターの調達コスト、研究者・エンジニアの人件費——これらは「とりあえず作ってみる」が許されない規模になっている。スタートアップが参入できる領域は狭まり、巨大テック企業と潤沢な資金を持つ研究機関だけが前線に立てる構造が固まりつつある。
この経済構造が意味するのは、開発の方向性が常にインセンティブによって規律されるということだ。
インセンティブの発生源はいくつかある。直接的な収益——サブスクリプション、API課金、広告。競争優位——他社より先に機能を実装することで市場を押さえる。規制対応——幻覚を減らす、有害コンテンツをフィルタリングする、といった信頼性の担保はビジネス継続の条件になる。そしてPR——「これができる」という発表自体が資金調達や採用に効く。
逆に言えば、これらのどれにも該当しない方向には、技術があっても開発リソースは向かない。インセンティブのないアウトプットは、基本的に進化しない。
これは批判ではない。観察だ。どんな産業も同じ構造の上にある。製薬会社が希少疾患の治療薬より生活習慣病の薬を優先するのも、自動車メーカーが燃費より販売台数の出る車種を優先するのも、同じ論理だ。AIだけが例外である理由はない。
ただ、AIには一つ特有の問題がある。ユーザーがその経済構造を見えにくい、という点だ。AIの「できないこと」は、技術的な壁なのかビジネス的な壁なのかが、外から判別しにくい。結果として、「できない」はすべて技術的限界として処理されがちになる。
AIのアウトプットはインセンティブの写像だ。その写像を正確に読むためには、技術の話だけでなく、誰が何のためにそれを作るかという問いが必要になる。
この論理を裏付ける出来事が、この記事を書いている時点で起きている。OpenAIは2026年3月24日、動画生成AI「Sora」のアプリおよびAPIの提供終了を発表した[1]。Soraは2025年12月にディズニーとの大型ライセンス契約・出資提携を結び[2]、動画生成AIの代名詞として注目を集めていたプロダクトだ。しかしSora終了と同時に、その提携も解消された[3]。終了の理由をOpenAIは公式には明かしていないが、Soraチームを率いるBill Peeblesは2025年10月30日の時点ですでに、経済性について「完全に持続不可能だ」と述べていた[4]。運用コストは1日あたり推定1500万ドル、年換算で約8000億円規模に達していたとされる[5]。OpenAIはリソースを法人・個人向け生産性ツールへ集中させる方向に舵を切った[6]。技術的に前進していたプロダクトが、インセンティブの計算によって退場した。コンコルドと同じ構造が、AIの世界でリアルタイムに起きている。
第3章:音楽言語化AIはなぜ生まれないのか
具体例を一つ置く。
音楽生成AIのSunoは、「ダークで緊張感のある戦闘曲」という体験言語を入力として受け取り、それを音響構造に変換して出力できる。ユーザーが音楽理論を知らなくても、体験として音楽を記述すれば、それなりの出力が返ってくる。
この設計が機能しているということは、Sunoの内部には「体験言語↔音響構造」の対応表が存在しているはずだ。「ダークで重い」が短調圏の進行と結びついている。「緊張感がある」がシンコペーションや非解決の和声と結びついている。膨大な学習データにラベルをつけ、ユーザーフィードバックを重ねることで、その対応表は精緻になってきた。
ならば逆方向——既存の音楽を入力として受け取り、「なぜこれが緊張感を生むか」を構造として言語化する——も、技術的には存在するはずだ。対応表が双方向であれば、入力と出力を入れ替えるだけの話に見える。
それでも、音楽を言語化するAIはプロダクトとして登場しない。
この構造の理由はシンプルだ。誰もそれを作るインセンティブを持っていないからだ。
まず、説明責任の問題がある。「なぜこの音が緊張感を生むか」という問いは、音楽理論の専門家でも完全には答えられない。理論は演奏と作曲の実践に常に遅れてきた歴史がある。ジャズのコード理論も、ブルーノートも、先に体験として存在していて、理論は後から追いかけた。AIが出力する「音楽の言語化」に、誰が責任を負えるか。負えない以上、プロダクトとして出せない。
次に、コストの問題がある。音楽言語化AIを作ろうとする企業があるとすれば、音楽制作を業とする企業だ。しかし自社専用にそれをチューニングするコストと、音楽のわかる人間を雇うコストを比べれば、後者の方が速くて安い。少なくとも現時点では。
Suno自身にも、内部の対応表を可視化するインセンティブがない。それを出すことで競合に学習データの構造を晒すリスクがある。ブラックボックスのままの方が、ビジネス上は合理的だ。
結果として、音楽言語化AIは「技術的に存在するかもしれないが、プロダクトとして現れない」という状態に留まる。これは技術的限界ではない。ビジネス的限界だ。コンコルドが技術的に飛べたのに退場したのと、同じ構造の上にある。
第4章:二つの限界を区別する——AIリテラシーの実質
「AIが苦手なこと」には、二種類ある。
一つは技術的限界だ。現時点の技術では実現できない。計算量が足りない、学習データが存在しない、アーキテクチャが対応していない。これは時間と研究の蓄積で解決される可能性がある。
もう一つはビジネス的限界だ。技術的には実現可能だが、作るインセンティブがない。収益に結びつかない、説明責任が取れない、既存の手段の方が速くて安い。これは時間が経っても解決されない可能性がある。インセンティブの構造が変わらない限り。
問題は、この二つが見た目として区別できないことだ。どちらも「AIにはできない」という同じ現象として現れる。ユーザーはその理由を問わないまま、技術的限界として処理してしまいがちになる。
区別するための問いの立て方はシンプルだ。「誰がこれを作るインセンティブを持つか」を問えばいい。
インセンティブが明確に存在する領域——たとえば幻覚(ハルシネーション)を減らすこと、有害コンテンツをフィルタリングすること——では、技術的限界が本当に壁になっている。開発リソースは向いているが、技術がまだ追いついていない。
しかし、インセンティブが存在しない領域——たとえば音楽を言語化すること、採算の取れない希少な用途に特化すること——では、技術的限界に見えてもビジネス的限界である可能性が高い。開発リソースが向いていないだけで、技術的に実現できるかは別の話かもしれない。
既存のAI限界論は、技術的・経済的・倫理的という分類で「できないこと」を整理しようとする。しかしその分類はあくまで、「すでに試みられた領域」の話だ。そもそもインセンティブがない領域には手がつかないため、限界かどうかすら検証されない。「できない」ではなく「試みられていない」という第三の状態が、AIの地図には広く存在している。
この視点を持つことが、AIの「できない」を正確に読む出発点になる。
AIが進化する方向は、インセンティブのある方向だ。裏返せば、インセンティブのない領域はどれだけ技術が熟していても、プロダクトとして現れない。AIの地図には、そういう「存在しない大陸」がある。それを技術的限界と呼んでしまうのは、地図の読み方を間違えている。
コンコルドは空を飛べた。ただ、飛び続けるインセンティブがなかった。AIの「できないこと」を語るとき、同じ問いが必要だ。技術的に飛べないのか、飛ぶ理由がないのか。その区別が、AIリテラシーの実質だと思う。
☕️よかったらコーヒー一杯。
https://buymeacoffee.com/mink_obs
著:霧星礼知(min.k) / リサーチ・構造支援:Claude Sonnet 4.6、ChatGPT / AI-assisted / Structure observation
参考文献
OpenAI, "Sora app goodbye", X(旧Twitter)公式投稿, 2026年3月24日 ↩︎
The Walt Disney Company and OpenAI, "Agreement to Bring Characters to Sora", 公式プレスリリース, 2025年12月 ↩︎
Japan Times, "OpenAI discontinues support for Sora and winds down Disney deal", 2026年3月25日 ↩︎
Bill Peebles, Xへの投稿, 2025年10月30日(Times of India等複数媒体が引用) ↩︎
Megaone AI Analysis, "OpenAI Shuts Down Sora After $15M Daily Costs vs $2.1M Revenue Analysis", 2026年3月 ↩︎
Ars Technica, "OpenAI plans to shut down Sora just 15 months after its launch", 2026年3月24日 ↩︎
For international readers
Why do we misread what AI “cannot” do? This piece argues that many perceived limitations are not purely technical, but shaped by incentives. It introduces a second axis: beyond engineering constraints, AI development is guided by business viability—costs, competition, regulation, and return on investment. Through examples like the Concorde’s retirement, the discontinuation of Sora, and the absence of music-interpretation AI, the article shows how something can be technically feasible yet never productized. The key distinction is not only what AI can do, but what someone has a reason to build. By reframing AI outputs as reflections of incentive structures, readers gain a more accurate lens to interpret capability, absence, and future direction.
Keywords
AI limitations, incentives, business constraints, AI development, Sora, Concorde, productization, AI economics