OpenAI が ChatGPT を発表したとき、最もショックを受けたのは Google だったと思う。
DeepMind があり、Demis Hassabis がいて、研究者の層で言えば世界最高だったはずの Google に、なぜあれが作れなかったのか。あるいは、なぜ出せなかったのか。
Google はまた、データの総量でも世界一であった。なのになぜだろう。
検索エンジンに最適化されたデータ資産を活かしきれなかったのは、彼らが大量のビッグデータを保有しすぎていたからかもしれない。確かにそれは、検索の精度や広告の最適化という目的では意味のある資産だった。しかし、言語生成という新たなパラダイムにおいては、それらのビッグデータは、あまりにもノイズが多く、構造的に偏っていた。AI にとって理想的な学習データとは言い難い側面があったと思う。
大量のデータを持っていることが、もはやイノベーションの条件ではない。むしろ、少量のクリティカルなデータと、明確な出力目標を持つチームこそが、今の AI を動かす鍵だった。
OpenAI が示したのは、まさにそこだった。初期の彼らは大規模 GPU クラスターを持っておらず、Microsoft との提携も GPT-3 以降の話だ。少ないリソースで、設計と学習戦略の工夫によって、社会を動かすだけのものを出した。データの量ではなく、質。計算資源の規模ではなく、モデルの構造。これこそが破壊的イノベーションだった。
それを目の当たりにしたビッグテックはどうしたか。彼らは GPU を市場から買い占めに出た。競合の芽を摘むために。自分たちですら使い切れない量の演算資源を確保し、他の誰にも触れさせないようにする戦略。それは、破壊的イノベーションを未然に潰すための、きわめて合理的な動きだった。
特に、言語生成 AI においては、Twitter や Facebook のような“人間の生データ”を保有するプラットフォームが、最大の価値を持つ。どこまでが人間で、どこまでが bot かも分からない、むき出しの感情が飛び交う空間。LinkedIn のような、名刺交換の場での形式的コミュニケーションとは、まったく異なる“人間らしさ”がそこにはあった。
だからこそ、争奪戦が起きた。Twitter の私企業化は、単にメディアの再編成ではなかった。公式には語られていないが、実際に Twitter の非公開データは xAI の LLM 開発に用いられており、買収が“人間の感情のビッグデータ”を他社に渡さないための動きだった可能性は高い。API を遮断してドメインを変更したのは、そのわかりやすい結果だと考えられる。
そして、シリコンバレーがデータと GPU の囲い込みを進める中で、誰も想定していなかったところから、DeepSeek が現れた。中国から登場したこの存在は、制限の中から創造を始め、むしろ先端半導体に依存しない仕様を選び、性能で既存モデルに食い込んできた。これは、まさに“次の破壊的イノベーション”そのものだった。
Google にあって、OpenAI に無かったもの。OpenAI にあって、Google に無かったもの。その違いが、未来の社会構造を示しているように思う。
