カテゴリー
雑記

新しい資源戦争の構造分析

AI の時代において、最も価値を持つ資源は何だろうか。それを考えたとき、真っ先に浮かぶのは「GPU」と「データ」だ。

一方で、それらが資源であること自体は、もはや常識になりつつある。問題は、それらがどのような性質を持つ資源なのか、ということだ。

産業革命の時代、石油は国家を動かす資源だった。工業生産を支え、移動手段を支え、戦争の行方すら決定づけた。石油を制する者が世界を制する、と言われた時代だった。

現代の GPU は、当時の石油に似ている。生成 AI を動かし、軍事技術を支え、情報戦の最前線に立つ。計算資源を持っているかどうかが、そのまま国家戦略の成否を分ける。

この視点については、「国家を揺るがす計算資源とエネルギー資源の地政学」でも書いた。

しかし、ChatGPT の登場、そして DeepSeek の出現によって、事態は少し複雑になってきた。もはや「大量の GPU とデータ」が絶対条件ではなくなりつつある。モデル設計と学習戦略によっては、限られた計算資源でも、十分に破壊的な成果が出せることが証明されてしまった。

つまり、石油に似ていたはずの GPU は、実は「通貨」にも似てきている。

量だけではない。どこで、どのタイミングで、誰がどう使うか。その流動性と配置戦略が、成果を左右する。蓄積するだけでは無意味で、流通と活用の設計が価値を生む。

これを受けて、今後の資源戦争は二層構造になると考えている。

ひとつは、従来型の石油戦争に似た構造だ。国家間で GPU を囲い込み、サプライチェーンを独占し、計算資源を通貨のように扱う。

もうひとつは、より柔軟で動的な通貨戦争に似た構造だ。モデル設計、データ設計、チップアーキテクチャ最適化──限られた資源の中で、どこまで成果を引き出せるかを競う。

DeepSeek が示したのは、まさに後者の可能性だ。最先端 GPU にアクセスできない環境下で、ソフトウェアと人的資源の最適化によって、既存のトップモデルに迫る性能を引き出した。

つまり、これからの時代は、ただ計算資源を持つだけでは意味がない。限られた資源を魔改造し、独自最適化し、局所的に最大効率を引き出す戦略が不可欠になる。

「誰が一番持っているか」ではない。「誰が一番うまく使いこなせるか」が、勝負を決める時代だ。

これが、AI 時代における新しい資源戦争の構造だと思う。

カテゴリー
雑記

なぜ Google は ChatGPT を作れなかったのか?

OpenAI が ChatGPT を発表したとき、最もショックを受けたのは Google だったと思う。

DeepMind があり、Demis Hassabis がいて、研究者の層で言えば世界最高だったはずの Google に、なぜあれが作れなかったのか。あるいは、なぜ出せなかったのか。

Google はまた、データの総量でも世界一であった。なのになぜだろう。
検索エンジンに最適化されたデータ資産を活かしきれなかったのは、彼らが大量のビッグデータを保有しすぎていたからかもしれない。確かにそれは、検索の精度や広告の最適化という目的では意味のある資産だった。しかし、言語生成という新たなパラダイムにおいては、それらのビッグデータは、あまりにもノイズが多く、構造的に偏っていた。AI にとって理想的な学習データとは言い難い側面があったと思う。

大量のデータを持っていることが、もはやイノベーションの条件ではない。むしろ、少量のクリティカルなデータと、明確な出力目標を持つチームこそが、今の AI を動かす鍵だった。

OpenAI が示したのは、まさにそこだった。初期の彼らは大規模 GPU クラスターを持っておらず、Microsoft との提携も GPT-3 以降の話だ。少ないリソースで、設計と学習戦略の工夫によって、社会を動かすだけのものを出した。データの量ではなく、質。計算資源の規模ではなく、モデルの構造。これこそが破壊的イノベーションだった。

それを目の当たりにしたビッグテックはどうしたか。彼らは GPU を市場から買い占めに出た。競合の芽を摘むために。自分たちですら使い切れない量の演算資源を確保し、他の誰にも触れさせないようにする戦略。それは、破壊的イノベーションを未然に潰すための、きわめて合理的な動きだった。

特に、言語生成 AI においては、Twitter や Facebook のような“人間の生データ”を保有するプラットフォームが、最大の価値を持つ。どこまでが人間で、どこまでが bot かも分からない、むき出しの感情が飛び交う空間。LinkedIn のような、名刺交換の場での形式的コミュニケーションとは、まったく異なる“人間らしさ”がそこにはあった。

だからこそ、争奪戦が起きた。Twitter の私企業化は、単にメディアの再編成ではなかった。公式には語られていないが、実際に Twitter の非公開データは xAI の LLM 開発に用いられており、買収が“人間の感情のビッグデータ”を他社に渡さないための動きだった可能性は高い。API を遮断してドメインを変更したのは、そのわかりやすい結果だと考えられる。

そして、シリコンバレーがデータと GPU の囲い込みを進める中で、誰も想定していなかったところから、DeepSeek が現れた。中国から登場したこの存在は、制限の中から創造を始め、むしろ先端半導体に依存しない仕様を選び、性能で既存モデルに食い込んできた。これは、まさに“次の破壊的イノベーション”そのものだった。

Google にあって、OpenAI に無かったもの。OpenAI にあって、Google に無かったもの。その違いが、未来の社会構造を示しているように思う。

カテゴリー
雑記

DeepSeek は何を変えたのか

中国からやってきた DeepSeek が話題になっている。OpenAI の ChatGPT 並みの性能であり、オープンソースで公開されているモデルもある。

これはゲームチェンジャーに成り得るのか?

もちろん、成り得ると思う。

公開されている情報を見る限りは、OpenAI/Microsoft、Google、Meta に対抗するような形で大規模な計算資源を投入し、開発されたという。Nvidia の半導体も大量有しているとの記事もある。

How small Chinese AI start-up DeepSeek shocked Silicon Valley

後発だけあって、既存の製品やオープンソースプロジェクトを参考に、改良点を加えられていることが興味深い。最大のポイントは、先端半導体をこの先も買い続けることが難しいという背景を踏まえ、先端半導体に依存しない仕様を目指してる点だ。

通常は、エネルギー効率を良くするため、半導体の構成を変えてみたり、生成 AI に関する処理の役割ごとに最適化した半導体を活用したりする中で、先端半導体にのみ依存しない AI モデルを構築していくのが王道であった。ところが今回は、手に入らない半導体資源という制約を前提にしている。あるいは、世代遅れの半導体を用いて、それでも速度もエネルギー効率も良いモデルを開発しようと明確に目指していたのだろう。
エネルギー問題や、半導体の限定的な入手による制限がきっかけとなるのでは無く、そもそも先端半導体にリーチできないという事と、一方で環境問題の懸念を除けばエネルギーは豊富に調達できるという立場から、着想して作られたのではないだろうか。エネルギー効率を無視した場合、エネルギーさえ潤沢にあれば勝ち目はある。

さらに考えされられたのが、AI モデルを構築する上でどのようなデータを学習させたのか、ということだ。先行するアメリカ系大手よりも早く、効率よく、他社が追いつけないレベルの性能を出すためには、一体どれほどの密度の濃い情報が、どれほどの量、投じられたのだろう。ここは、アメリカ企業にはできない判断とアクションであった可能性を感じる。

そもそも、決済の電子化に伴う与信情報の利活用において、中国企業のネットワークは先進的であった。生成 AI を用いた経済政策、安全保障政策という枠組みで考えれば、国が協力する形でデータを積極的に活用すれば、民間企業単位で争う次元を超えた性能を出せる可能性は確かにある。それでも、一旦は性能が高くても、今後の半導体の成長に合わせて相対的に性能が下がる可能性が考えられるはずだ。しかしそれすらも見越しているとすれば、対策をとらないわけがない。大規模データと超高性能な先端半導体がそろって必要であるという前提を無視したアプローチで開発され、かつ今後はこれまでの成果に基づいて自己学習強化がされていくのであれば、エネルギーと精密なデータの総量での戦いとなる。そうなれば、優位性を維持できる可能性があるのではないだろうか。

そして今回の無料、格安での一般開放だ。これよにって、多くの人が利用することで、新たな可能性が開かれる。自社、自国だけでは不可能であった、多様性のある追加のデータを集めることができるわけで、シリコンバレー的な動きだ。会社のバックグラウンドも、金融の色が強い。多層的にレバレッジをかけて、経済的効果を狙いながらも、一気に学習を加速させようとしている。
個人的にはそこに危機感を感じるのだが、利便性と経済合理性の前では危機感など無力だ。人々は簡単に情報の価値を手放すことをシリコンバレーが教えてくれた。よって、先行して世に問うことが何よりも重要だった。

発表のタイミングも完璧だ。アメリカの新生トランプ政権が稼働するにあたって、中国企業として、中国として、受けるであろう影響を十分に考え、先行して対策をしているように見える。エネルギーの総量、データの総量。半導体の性能や環境負荷という条件を外し、本気で結果を取りに行く戦いが始まったのでは無いだろうか。アメリカのエネルギー政策の転換は、ここでも大きく意味を持ってくる。

そんなアメリカ企業と DeepSeek の戦いの中、見落としがちな事が2つあると思っている。

  1. 生成 AI の開発において大量のデータはそもそも必要なのか
  2. 今後も継続的に演算性能重視な先端半導体は必要なのか

どちらも No である可能性が示唆されており、肯定されれば市場で評価されている企業の価値が大きく変わってしまう。先行する大手企業の価値とは?金融系企業の強みとは?テック企業の高い利益率の根源は?果たしてどうなるのだろう。

ルールが書き換わるタイミングでのみ起こる、緊張感のある戦争が今まさに起きている。

カテゴリー
雑記

Apple はいつまで蚊帳の外にいるのか

ChatGPT がいくら盛り上がっても、AI ブームが来ても、いつもの通り我が道を行く Apple。残念ながら短期的には、Apple が直接的に収益を得るチャンスが無い。ネイティブアプリも存在しないため、OpenAI のサブスクモデルに決済レイヤーとして仲介することもできず。

そして Microsoft と Google が必死に、人をデバイスの外へと引っ張り出そうとしている。デバイスの外で、自社のブラウザーを通して、AI との対話を継続させようと試みている。Apple のハードウェアはただの対人的な最終接点であり、計算も対話も Apple が介さないレイヤーで完結させることに徹している。すでに、仕事や生活のための最高のアシスタントとなれる AI を全面に押し出して、得意のクラウドサービスへと人を誘っている。手元の端末は、電池さえ長持ちすれば良いと言わんばかりに。

プライバシーを盾に、クラウドから人を引き剥がし、独自のクラウド環境・サブスクモデルへと囲い込む Apple の戦いは、最終局面でひっくりかえされそうだ。Apple は自らに課した縛りにより、デバイスの外の情報にアクセスができない。仮に Apple が Generative AI に歩み寄るとしても、独自のハードウェア内部に隔離された装置だけでは、競合に勝る性能が生み出せない。

Apple に情報がなくても、Apple のデバイスにはある。隔離された領域には、桁違いの個人情報がある。うまくモデルが噛み合えば、エネルギー効果の高い高性能な AI が誕生する可能性はある。それに、iPhone/iPad は当然として、Watch や AppleTV、AirTag なんかも含めれば、情報源や計算資源は相当量が市場に放出されていると考えることは可能だ。AirTag の位置特定メカニズムがそうであったように、思いがけない Apple の顧客資源の転用が起こる可能性はあるのではないだろうか。

データセンター側に収集した膨大なデータをデータセンター側で高度な計算能力によって解析する先行者と、端末に隔離したデータを断片的にユーザーに持たせている Apple。融合したら世界は激変するだろうけど、そうは成りえないわけで、この先も排他的な囲い込みによってライバルの勝利を確定させない段階へと進む。

カテゴリー
雑記

未来を予言する検索エンジン

ChatGPT が検索エンジンに来る未来が、今年になるかもしれないというニュースを見ました。Microsoft の Bing が、導入を検討しているようです。

モバイルバージョンを終了