AIは民主化から半歩ずつ遠のいている——使えるが、作れない構造
AI is drifting away from democratization — access expands, control concentrates
スマホでAIが使える。無料プランがある。誰でもアクセスできる時代が来た——そう言われる。しかし「使える」ことと「作れる」ことは違う。そして「作れる」ことと「方向を決められる」ことも違う。
民主化という言葉が広がるほど、その実態との距離が気になる。AIを動かすには、お金がかかる。学習にも、推論にも、チップにも。その金額は個人やアカデミアが払える水準を超えていて、しかも下がる見込みが薄い。民主化の議論は「使う」側の話に終始しているが、インフラを持つ側の集権化は静かに進んでいる。
第1章:「使える」と「作れる」は違う——民主化の定義問題
AIが民主化した、という言説がある。スマホで使える、無料プランがある、APIが公開されている。確かにそれらは事実だ。2年前にはなかったアクセスが、今はある。
しかしこの「民主化」は、二つの層のうち一つしか指していない。
利用層では、アクセスは確かに広がった。ChatGPTに質問できる、画像を生成できる、コードを書かせられる。これは本物の変化だ。しかし基盤層——学習・推論・チップ・エコシステム——の支配は、ごく少数の企業に集中したままだ。何が作られるか、何が作られないかを決めるのは、この基盤層を持つ者だ。
「使える」ことは「方向を決められる」ことではない。
メディア史の前例で例えるなら、テレビの登場の時の例がわかりやすい。その時、テレビを「見る」という形の民主化は起きたが、放送局を作れる主体は極めて限られていた。インターネットが一時それを壊しかけた。誰でもサーバーを立て、コンテンツを発信し、サービスを作れた。しかしAIは、再び「インフラを持つ者が内容を規律する」構造に戻りつつある。民主化の例外的な瞬間だったインターネットの揺り戻しとして、AIを読む視点がある。
前稿(「AIにできないことを問うには、技術的限界とビジネス的限界の二つの視点が必要だ」)で書いたように、インセンティブのない領域には手がつかない。その論点をさらに一段深めると、そもそも手をつけられる主体が、参入コストによって絞り込まれているという構造が見えてくる。「誰もやらない」ではなく「誰もやれない」という話だ。
第2章:学習コストと推論コストの二重構造
AIを「動かす」コストは、他のソフトウェアと根本的に違う。
Webサービスなら、一度作ればスケールしても限界費用はほぼゼロに近づく。ユーザーが100人になっても100万人になっても、サーバーコストは増えるが、プロダクト自体の複製コストはかからない。AIはそうではない。使えば使うほどコストが線形に増える。
コストの構造は二層になっている。
一層目は学習コストだ。大規模モデルの学習は一回だけだが、その額は莫大だ。GPT-4クラスのモデルを一から学習するコストは数百億円規模とされ、これは企業以外には現実的に不可能な水準だ。アカデミアが追いつけない理由の一つがここにある。
二層目は推論コストだ。こちらは使われるたびに毎回発生する。ユーザーが質問するたびに、画像を生成するたびに、GPUが回る。前稿で触れたSoraの1日1500万ドルという数字は、ほぼこの推論コストだ。「軽量モデル」と呼ばれるものでも、CPUでサクサク動くわけではなく、GPUかそれに近い専用ハードウェアが必要になる。量子化や蒸留で削っても、要求するインフラの水準は個人が自由に扱える域を超えている。
この二重構造が、参入障壁を「開発コスト」だけでなく「運用コスト」の問題にしている。作るだけでなく、動かし続けるコストが壁になる。好奇心や学究的な動機で「試してみる」という行為が、インフラの手前で止まる。従来の技術史では、企業がやらない領域をアカデミアやOSSが埋めてきた。AIではそのセーフティネットが、コストの構造によって機能しない。
第3章:GPUは民主化しない——供給制約とエコシステムの壁
ではGPUが安くなれば解決するのか。この問いへの答えは、おそらく否だ。
CPUの民主化と比較するとわかりやすい。CPUが安くなったのは、汎用化・大量生産・競争というサイクルが回ったからだ。PCが普及して需要が爆発し、IntelとAMDが競争し、コモディティ化した。
一方、GPUはその道を辿らない可能性が高い。
この構造の理由はシンプルだ。需要の性質が根本的に違う。CPUは「誰でも使う」汎用品としてコモディティ化したが、GPUの需要は企業の大規模ユースケースに集中していて、個人が「1枚買えば十分」という状態にならない。しかも最先端モデルは常にハードウェアの限界を使い切る方向に進化するため、チップの性能向上がそのままコスト低下につながらない。
NVIDIAの寡占もこの構造を固定する。AIアクセラレーター市場におけるNVIDIAのシェアは収益ベースで約80〜92%(2025年時点)[1]、学習用途に限れば90%超とされる[2]。AMDはROCmで対抗しているが、AIデータセンター内でのCUDAのシェアは92〜94%(2025年Q4)[3]で、AMDのROCmは約6%にとどまる[4]。
この差はハードウェアの性能差ではない。CUDAは2006年に始まり[3:1]、現在400万人以上の開発者、4万社以上の企業が統合している[5]。約20年分のコード・ライブラリ・チュートリアル・知見がCUDA前提で積み上がっている。AMDのGPUを買っても「動かない」「遅い」「情報がない」という体験になりやすい。乗り換えコストは、チップの価格差より、エコシステムの差の方がはるかに大きい。
さらに供給制約という物理的な上限がある。GPUは「安くなる」以前に「十分な数が存在しない」という問題を抱えている。TSMCでの製造、HBMメモリの調達、ASML製造装置——工場を建てるだけで数年かかる。世界中のスマホやPCに推論用チップを載せようとした場合、今のNVIDIAの生産能力では物理的に追いつかない。需要が先行し、供給が追いつかない構造は、価格を押し下げる競争を生みにくい。
第4章:独立しているように見えて、別の依存に入る
一方、「NVIDIAの寡占を崩す動き」として、語られる主体がある。GoogleのTPU、AWSのTrainium・Inferentia、MicrosoftのMaia——クラウド御三家がそれぞれ独自チップを開発している動きだ。AppleはM系チップでNVIDIAとは別の道を歩んでいる。エッジAI・オンデバイスAIという文脈では、クラウドに依存しないAIとして語られることもある。
しかし、これは「誰のための独立か」を問うと、構造が見えてくる。
GoogleがTPUを作った理由は、はっきりと「NVIDIAへの依存コストを削減するため」だ。AWSのチップも、自社クラウドの収益性を上げるためだ。これらを使う条件はいずれも各社クラウド経由のみであり、ユーザーの選択肢は増えていない。依存先がNVIDIAからクラウド企業に移るだけで、NVIDIAという一点集中が御三家という三点集中に変わっただけだ。集権の形が変わっても、集権であることは変わらない。
AppleのM系チップも同じ構図だ。NVIDIAに依存しない点では独自路線だが、Appleのエコシステム内に完全に閉じている。「Appleへの依存の民主化」と言い換えることができる。
エッジAI・オンデバイスAIはどうか。スマホ上で動くAIは「クラウド不要」として民主化の文脈で語られるが、チップはApple・Qualcomm・MediaTekの寡占、OSはApple・Googleの寡占だ。インフラの集権化は解消されていない。層が変わっただけで、構造は同じだ。
独立の動きは確かに存在する。しかしそれは企業間の依存関係の再編であって、個人やアカデミアへの開放ではない。「クラウド企業がNVIDIAから独立する」ことと「個人・アカデミアがAIにアクセスできる」ことは、全く別の命題だ。
第5章:半歩ずつ遠のく構造——なぜ気づきにくいのか
AIは民主化から一気に遠のいているわけではない。だから気づきにくい。
無料プランが有料になる。これまで見てきたように、軽量モデルでもGPUが必要になる。クラウドなしでは動かせなくなる。オンデバイスと言われても、チップとOSは寡占されている。どの変化も単独では小さく見えて、しかも合理的な理由がある。しかし積み重なると、構造が変わっている。
「使える民主化」と「作れる集権化」は同時に進行している。利用層では確かにアクセスが広がっていて、それは本物の変化だ。しかし基盤層では、参入できる主体が絞り込まれ続けている。二つの動きが逆方向に走っているから、表面を見ているだけでは気づかない。
既存のAI限界論は、技術的・経済的・倫理的という分類で「できないこと」を整理しようとする。しかしその分類は、以前の記事でコンコルドの例を引いて話したように、あくまで、すでに試みられた領域の話だ。参入コストによって締め出された主体——アカデミア、OSS、個人——が向かえたはずの領域には、そもそも手がつかない。「できない」ではなく「試みられていない」という状態が、AIの地図には広く存在している。そしてその状態は、インフラの集権化が続く限り、構造的に固定されていく。
従来の技術史では、企業がやらない領域はアカデミアやOSSが埋めてきた。インターネットがその典型で、プロトコルは公開され、誰でもサーバーを立てられ、オープンソースが基盤を支えた。
AIはその構造を持っていない。参入コストが、好奇心の手前にある。
一歩で遠のいたわけではない。だから気づきにくい。しかし半歩が積み重なると、気づいたときには構造が変わっている。AIが民主化しているという感覚と、インフラの集権化が進んでいるという事実は、同時に正しい。使う側に広く開放されているという意味では、民主化は確かに進んでいる。しかし作る側では、全く逆の話が進んでいる。その二つを同時に見る視点が、今のAIを読むために必要だと思う。民主化という言葉が、集権化を隠す幕になっていないか。
☕️よかったらコーヒー一杯。
https://buymeacoffee.com/mink_obs
著:霧星礼知(min.k) / リサーチ・構造支援:Claude Sonnet 4.6、ChatGPT / AI-assisted / Structure observation
参考文献
For international readers
Is AI truly becoming democratized? While access has expanded—through smartphones, free tiers, and APIs—the ability to build and shape AI systems remains concentrated. This article examines the structural gap between “using” AI and “creating” it, and further, between creating and determining its direction. By focusing on the cost structure of training, inference, and hardware (especially GPUs), it shows how high and persistent barriers limit participation to a small set of companies. The result is a dual movement: broader access at the surface level, but increasing centralization at the infrastructure level. Rather than a contradiction, these two trends coexist. After reading, you will be able to distinguish which layer “democratization” refers to, and recognize how gradual shifts can quietly reshape the system.
Keywords
AI democratization, centralization, AI infrastructure, GPUs, training cost, inference cost, AI economics