カテゴリー
雑記

OpenAI と AMD の提携にみる AI 時代の計算能力資源価値

生成 AI の拡張は、モデルの新規性ではなく計算能力資源の確保と運用構造で決まる段階に入った。OpenAI と AMD の複数年・複数世代にわたる提携は、その構図を端的に示している。単なる売買契約ではなく、資本・供給・電力・実装のレイヤーを束ね、相互の成長を担保する仕組みによって規模を前提にするゲームへ移行したという理解である。

要求される電力規模予測

提携の骨格はギガワット級の計算能力前提である。初期 1 ギガワット、累計で数ギガワット級という水準は、データセンターの建設と電力調達を分離して語れない規模であり、個別案件ではなく地域電力系統の計画に接続する。ここで重要なのは「ピーク消費電力」だけでなく「継続稼働に耐える供給信頼度」と「排熱処理を含む実効 PUE」である。AI トレーニングはスパイクではなく恒常負荷を前提にしやすく、系統側の安定度と補機の冗長設計がボトルネックになる。

加えて、モデルの進化は「計算当たり電力効率の改善」を相殺するかたちで総電力需要を拡大させる。半導体の世代交代で性能/ワットが伸びても、パラメータ規模やデータ総量の増加、マルチモーダル化による前処理・後段推論の付帯計算が需要を押し上げる。結果として、設備投資の主語はサーバーラックではなく、冷却系を含む土木・電力の領域へ移る。

計算能力市場の潜在的な問題

NVIDIA 支配の市場に対し、AMD の実装選択肢が増えても、光配線、先端 HBM、CoWoS などの製造能力が別のボトルネックとして顕在化する。さらに、ラック当たりの熱密度上昇は空冷から液冷への不可逆な転換を迫り、データセンター立地の制約を強める。結果、資本があっても直ちに計算能力資源へ変換できない転換遅延が発生する。

もうひとつの問題は、地政学的リスクである。国際的な緊張の高まりと輸出規制により、製造と配備のチェーンが分断されると、計画の遅延や再設計が連鎖する。

OpenAI の課題

OpenAI の第一の課題は、指数関数的に増大する計算需要の吸収と平準化である。研究開発・製品化・ API 提供を同時に走らせる構造では、学習クラスタと推論クラスタのキャパシティマネジメントが難しく、モデルの刷新と既存サービスを両立させる計画立案が肝になる。

第二に、単一ベンダー依存の解消である。NVIDIA 依存は供給逼迫と価格弾力性の欠如を生み、交渉余地を狭めた。ゆえに、AMD とのロードマップ共有は最適化余地と調達分散の両面で意味がある。

第三に、資本構造とガバナンスである。外部からの巨額コミットメントを巻き込みつつ、中立性と研究機動性を維持するためには、提携を束ねる契約設計が必要になる。過去の分裂危機を想起させる。資本の出し手が異なる意思決定を持ち込み始めると、研究アジェンダの整合が課題化する。

AMD の課題

AMD にとってのボトルネックは、製造キャパシティとソフトウェアエコシステムである。最新設計の製品では一定の競争力を持ち得るが、PyTorch・CUDA 生態系に匹敵する開発者体験を提供するには、ランタイム、コンパイラ、カーネル、分散訓練のツールチェーンの発展が不可欠となる。さらに、HBM 供給、パッケージングの歩留まり、冷却技術への対応といったハードの実装面が、納期と安定稼働の鍵を握る。

もうひとつは OpenAI と生み出す成果を市場全体に展開できるかどうかである。OpenAI と単一のプロジェクト・単一の製品として閉じずに一般化し、他の市場へ展開するパスを早期に用意できるか。単発大型案件の依存度が逆にリスクになることもある。

提携の戦略的意図

この提携の意図は単純である。OpenAI は計算能力資源の確保と多様化、AMD は市場からの信頼と需要の同時獲得である。

だが構造的にはもう一段ある。第一に、モデル・データ・計算・資本をひとつの流れの中に組み込むこと。第二に、GPU の設計開発と供給のサイクルを加速させること。第三に、電力と立地のポートフォリオを早期に押さえること。すなわち、両社の課題をロードマップに前倒しで埋め込み、供給と資本の不確実性を同時に下げる設計となっている。

提携のスキーム

特徴は相互コミットメントを強く担保する条項設計である。大口引取と設備立ち上げのマイルストーンを資本的リターンに結びつけ、ハードウェア側の成功が顧客側の経済的利益に反映されるように組む。供給側から見れば、数量確度と価格の下支えが得られ、製造投資の意思決定が容易になる。需要側から見れば、技術仕様への影響力を強め、ワークロード適合性を高められる。金融的には、キャッシュフローの急激な上下を慣らす機能も果たす。

NVIDIA との違い

NVIDIA の大型合意が「供給側から需要側へ資本を入れ、需要側がその資金で供給側を買う」循環であったのに対し、今回の AMD との設計は「供給側が需要側にエクイティ・オプションを与え、需要側が長期引取で供給の確度を提供する」という対比にある。どちらも相手の成功を自分の利益に直結させるが、資本の流れる向きとガバナンスの効き方が異なる。

NVIDIA 型は供給側の影響力が強く、需要側の自由度は資本条件に縛られる。AMD 型は需要側が将来の株主となる余地を持ち、供給側の技術優先順位に間接的な影響を及ぼしやすい。

計算能力主義

AI 時代の価値モデルは、最終的に「誰がどれだけの計算能力資源を、どの電力で、どの効率で、どのガバナンスで回せるか」に集約する。Microsoft、NVIDIA、AMD、Oracle との一連の提携は、その前提でつながっている。計算能力資源は通貨であり、通路であり、主権の基礎である。電力の出自、法域、倫理方針、モデルの学習経路までを含めて「どの計算能力空間を選ぶか」という選択が、企業戦略であり、社会の制度設計へと波及する。

この観点では、クラウド事業者との長期コミットメント、専用電源・冷却技術・用地の同時確保、そしてサプライチェーンを巻き込む金融の設計が一体化した案件こそが競争力の源泉である。単価や FLOPS の比較だけでは、もはや優位を測れない。

計算機市場・技術ロードマップへの影響

今後も増え続ける計算能力資源への需要に対応するために、何を成すべきなのかは明確だ。より大きなメモリ空間、より低レイテンシ、より高効率の冷却、より高いエネルギー効率。結果、GPU は引き続き進化していく定めにある。HBM 容量と帯域の段階的増加、GPU 間相互接続技術の進化、ストレージやデータローディングの最適化。改善の余地を挙げればきりがない。

ソフトウェア面では、PyTorch・JAX の後方互換を保ったまま、AMD 側のコンパイラ・ランタイムがどれだけ摩擦ゼロに近づけるか。この先、市場を拡大する過程で、実運用からのフィードバックを最短経路でアーキテクチャへ返すことが、世代間の性能の差を決める。ハードが供給されても、ソフトウェアレベルでの最適化が遅れれば、市場価値に転化しない。

また、電力・冷却・立地は技術ロードマップの一部として扱うべきである。液浸を前提にしたレイアウト、廃熱回収と地域熱供給の統合、再エネと蓄電のハイブリッド、需要に応じたスケジューリング。この「ワットとビット」の連携を前提とした設計が、計算能力資源の真の単価を決める。チップの微細化だけでは、次の 10 年は生き残れない。

結語

OpenAI と AMD の提携は、計算能力資源を軸に資本・供給・電力・ソフトウェアを一体で設計する時代の到来を示した。計算能力主義の下では、勝敗は単一の製品ではなく、生態系の成熟度で決まる。市場の速度はさらに上がるだろうが、基礎は単純である。どの電力で、どの場所で、どのチップで、どのコードを、どのガバナンスで回すか。それを早く、深く、広く設計した陣営が、次の世代の地図を描く。

カテゴリー
雑記

新しい資源戦争の構造分析

AI の時代において、最も価値を持つ資源は何だろうか。それを考えたとき、真っ先に浮かぶのは「GPU」と「データ」だ。

一方で、それらが資源であること自体は、もはや常識になりつつある。問題は、それらがどのような性質を持つ資源なのか、ということだ。

産業革命の時代、石油は国家を動かす資源だった。工業生産を支え、移動手段を支え、戦争の行方すら決定づけた。石油を制する者が世界を制する、と言われた時代だった。

現代の GPU は、当時の石油に似ている。生成 AI を動かし、軍事技術を支え、情報戦の最前線に立つ。計算資源を持っているかどうかが、そのまま国家戦略の成否を分ける。

この視点については、「国家を揺るがす計算資源とエネルギー資源の地政学」でも書いた。

しかし、ChatGPT の登場、そして DeepSeek の出現によって、事態は少し複雑になってきた。もはや「大量の GPU とデータ」が絶対条件ではなくなりつつある。モデル設計と学習戦略によっては、限られた計算資源でも、十分に破壊的な成果が出せることが証明されてしまった。

つまり、石油に似ていたはずの GPU は、実は「通貨」にも似てきている。

量だけではない。どこで、どのタイミングで、誰がどう使うか。その流動性と配置戦略が、成果を左右する。蓄積するだけでは無意味で、流通と活用の設計が価値を生む。

これを受けて、今後の資源戦争は二層構造になると考えている。

ひとつは、従来型の石油戦争に似た構造だ。国家間で GPU を囲い込み、サプライチェーンを独占し、計算資源を通貨のように扱う。

もうひとつは、より柔軟で動的な通貨戦争に似た構造だ。モデル設計、データ設計、チップアーキテクチャ最適化──限られた資源の中で、どこまで成果を引き出せるかを競う。

DeepSeek が示したのは、まさに後者の可能性だ。最先端 GPU にアクセスできない環境下で、ソフトウェアと人的資源の最適化によって、既存のトップモデルに迫る性能を引き出した。

つまり、これからの時代は、ただ計算資源を持つだけでは意味がない。限られた資源を魔改造し、独自最適化し、局所的に最大効率を引き出す戦略が不可欠になる。

「誰が一番持っているか」ではない。「誰が一番うまく使いこなせるか」が、勝負を決める時代だ。

これが、AI 時代における新しい資源戦争の構造だと思う。

カテゴリー
雑記

なぜ Google は ChatGPT を作れなかったのか?

OpenAI が ChatGPT を発表したとき、最もショックを受けたのは Google だったと思う。

DeepMind があり、Demis Hassabis がいて、研究者の層で言えば世界最高だったはずの Google に、なぜあれが作れなかったのか。あるいは、なぜ出せなかったのか。

Google はまた、データの総量でも世界一であった。なのになぜだろう。
検索エンジンに最適化されたデータ資産を活かしきれなかったのは、彼らが大量のビッグデータを保有しすぎていたからかもしれない。確かにそれは、検索の精度や広告の最適化という目的では意味のある資産だった。しかし、言語生成という新たなパラダイムにおいては、それらのビッグデータは、あまりにもノイズが多く、構造的に偏っていた。AI にとって理想的な学習データとは言い難い側面があったと思う。

大量のデータを持っていることが、もはやイノベーションの条件ではない。むしろ、少量のクリティカルなデータと、明確な出力目標を持つチームこそが、今の AI を動かす鍵だった。

OpenAI が示したのは、まさにそこだった。初期の彼らは大規模 GPU クラスターを持っておらず、Microsoft との提携も GPT-3 以降の話だ。少ないリソースで、設計と学習戦略の工夫によって、社会を動かすだけのものを出した。データの量ではなく、質。計算資源の規模ではなく、モデルの構造。これこそが破壊的イノベーションだった。

それを目の当たりにしたビッグテックはどうしたか。彼らは GPU を市場から買い占めに出た。競合の芽を摘むために。自分たちですら使い切れない量の演算資源を確保し、他の誰にも触れさせないようにする戦略。それは、破壊的イノベーションを未然に潰すための、きわめて合理的な動きだった。

特に、言語生成 AI においては、Twitter や Facebook のような“人間の生データ”を保有するプラットフォームが、最大の価値を持つ。どこまでが人間で、どこまでが bot かも分からない、むき出しの感情が飛び交う空間。LinkedIn のような、名刺交換の場での形式的コミュニケーションとは、まったく異なる“人間らしさ”がそこにはあった。

だからこそ、争奪戦が起きた。Twitter の私企業化は、単にメディアの再編成ではなかった。公式には語られていないが、実際に Twitter の非公開データは xAI の LLM 開発に用いられており、買収が“人間の感情のビッグデータ”を他社に渡さないための動きだった可能性は高い。API を遮断してドメインを変更したのは、そのわかりやすい結果だと考えられる。

そして、シリコンバレーがデータと GPU の囲い込みを進める中で、誰も想定していなかったところから、DeepSeek が現れた。中国から登場したこの存在は、制限の中から創造を始め、むしろ先端半導体に依存しない仕様を選び、性能で既存モデルに食い込んできた。これは、まさに“次の破壊的イノベーション”そのものだった。

Google にあって、OpenAI に無かったもの。OpenAI にあって、Google に無かったもの。その違いが、未来の社会構造を示しているように思う。

カテゴリー
雑記

DeepSeek は何を変えたのか

中国からやってきた DeepSeek が話題になっている。OpenAI の ChatGPT 並みの性能であり、オープンソースで公開されているモデルもある。

これはゲームチェンジャーに成り得るのか?

もちろん、成り得ると思う。

公開されている情報を見る限りは、OpenAI/Microsoft、Google、Meta に対抗するような形で大規模な計算資源を投入し、開発されたという。Nvidia の半導体も大量有しているとの記事もある。

How small Chinese AI start-up DeepSeek shocked Silicon Valley

後発だけあって、既存の製品やオープンソースプロジェクトを参考に、改良点を加えられていることが興味深い。最大のポイントは、先端半導体をこの先も買い続けることが難しいという背景を踏まえ、先端半導体に依存しない仕様を目指してる点だ。

通常は、エネルギー効率を良くするため、半導体の構成を変えてみたり、生成 AI に関する処理の役割ごとに最適化した半導体を活用したりする中で、先端半導体にのみ依存しない AI モデルを構築していくのが王道であった。ところが今回は、手に入らない半導体資源という制約を前提にしている。あるいは、世代遅れの半導体を用いて、それでも速度もエネルギー効率も良いモデルを開発しようと明確に目指していたのだろう。
エネルギー問題や、半導体の限定的な入手による制限がきっかけとなるのでは無く、そもそも先端半導体にリーチできないという事と、一方で環境問題の懸念を除けばエネルギーは豊富に調達できるという立場から、着想して作られたのではないだろうか。エネルギー効率を無視した場合、エネルギーさえ潤沢にあれば勝ち目はある。

さらに考えされられたのが、AI モデルを構築する上でどのようなデータを学習させたのか、ということだ。先行するアメリカ系大手よりも早く、効率よく、他社が追いつけないレベルの性能を出すためには、一体どれほどの密度の濃い情報が、どれほどの量、投じられたのだろう。ここは、アメリカ企業にはできない判断とアクションであった可能性を感じる。

そもそも、決済の電子化に伴う与信情報の利活用において、中国企業のネットワークは先進的であった。生成 AI を用いた経済政策、安全保障政策という枠組みで考えれば、国が協力する形でデータを積極的に活用すれば、民間企業単位で争う次元を超えた性能を出せる可能性は確かにある。それでも、一旦は性能が高くても、今後の半導体の成長に合わせて相対的に性能が下がる可能性が考えられるはずだ。しかしそれすらも見越しているとすれば、対策をとらないわけがない。大規模データと超高性能な先端半導体がそろって必要であるという前提を無視したアプローチで開発され、かつ今後はこれまでの成果に基づいて自己学習強化がされていくのであれば、エネルギーと精密なデータの総量での戦いとなる。そうなれば、優位性を維持できる可能性があるのではないだろうか。

そして今回の無料、格安での一般開放だ。これよにって、多くの人が利用することで、新たな可能性が開かれる。自社、自国だけでは不可能であった、多様性のある追加のデータを集めることができるわけで、シリコンバレー的な動きだ。会社のバックグラウンドも、金融の色が強い。多層的にレバレッジをかけて、経済的効果を狙いながらも、一気に学習を加速させようとしている。
個人的にはそこに危機感を感じるのだが、利便性と経済合理性の前では危機感など無力だ。人々は簡単に情報の価値を手放すことをシリコンバレーが教えてくれた。よって、先行して世に問うことが何よりも重要だった。

発表のタイミングも完璧だ。アメリカの新生トランプ政権が稼働するにあたって、中国企業として、中国として、受けるであろう影響を十分に考え、先行して対策をしているように見える。エネルギーの総量、データの総量。半導体の性能や環境負荷という条件を外し、本気で結果を取りに行く戦いが始まったのでは無いだろうか。アメリカのエネルギー政策の転換は、ここでも大きく意味を持ってくる。

そんなアメリカ企業と DeepSeek の戦いの中、見落としがちな事が2つあると思っている。

  1. 生成 AI の開発において大量のデータはそもそも必要なのか
  2. 今後も継続的に演算性能重視な先端半導体は必要なのか

どちらも No である可能性が示唆されており、肯定されれば市場で評価されている企業の価値が大きく変わってしまう。先行する大手企業の価値とは?金融系企業の強みとは?テック企業の高い利益率の根源は?果たしてどうなるのだろう。

ルールが書き換わるタイミングでのみ起こる、緊張感のある戦争が今まさに起きている。

カテゴリー
雑記

Apple はいつまで蚊帳の外にいるのか

ChatGPT がいくら盛り上がっても、AI ブームが来ても、いつもの通り我が道を行く Apple。残念ながら短期的には、Apple が直接的に収益を得るチャンスが無い。ネイティブアプリも存在しないため、OpenAI のサブスクモデルに決済レイヤーとして仲介することもできず。

そして Microsoft と Google が必死に、人をデバイスの外へと引っ張り出そうとしている。デバイスの外で、自社のブラウザーを通して、AI との対話を継続させようと試みている。Apple のハードウェアはただの対人的な最終接点であり、計算も対話も Apple が介さないレイヤーで完結させることに徹している。すでに、仕事や生活のための最高のアシスタントとなれる AI を全面に押し出して、得意のクラウドサービスへと人を誘っている。手元の端末は、電池さえ長持ちすれば良いと言わんばかりに。

プライバシーを盾に、クラウドから人を引き剥がし、独自のクラウド環境・サブスクモデルへと囲い込む Apple の戦いは、最終局面でひっくりかえされそうだ。Apple は自らに課した縛りにより、デバイスの外の情報にアクセスができない。仮に Apple が Generative AI に歩み寄るとしても、独自のハードウェア内部に隔離された装置だけでは、競合に勝る性能が生み出せない。

Apple に情報がなくても、Apple のデバイスにはある。隔離された領域には、桁違いの個人情報がある。うまくモデルが噛み合えば、エネルギー効果の高い高性能な AI が誕生する可能性はある。それに、iPhone/iPad は当然として、Watch や AppleTV、AirTag なんかも含めれば、情報源や計算資源は相当量が市場に放出されていると考えることは可能だ。AirTag の位置特定メカニズムがそうであったように、思いがけない Apple の顧客資源の転用が起こる可能性はあるのではないだろうか。

データセンター側に収集した膨大なデータをデータセンター側で高度な計算能力によって解析する先行者と、端末に隔離したデータを断片的にユーザーに持たせている Apple。融合したら世界は激変するだろうけど、そうは成りえないわけで、この先も排他的な囲い込みによってライバルの勝利を確定させない段階へと進む。