カテゴリー
雑記

OpenAI と AMD の提携にみる AI 時代の計算能力資源価値

生成 AI の拡張は、モデルの新規性ではなく計算能力資源の確保と運用構造で決まる段階に入った。OpenAI と AMD の複数年・複数世代にわたる提携は、その構図を端的に示している。単なる売買契約ではなく、資本・供給・電力・実装のレイヤーを束ね、相互の成長を担保する仕組みによって規模を前提にするゲームへ移行したという理解である。

要求される電力規模予測

提携の骨格はギガワット級の計算能力前提である。初期 1 ギガワット、累計で数ギガワット級という水準は、データセンターの建設と電力調達を分離して語れない規模であり、個別案件ではなく地域電力系統の計画に接続する。ここで重要なのは「ピーク消費電力」だけでなく「継続稼働に耐える供給信頼度」と「排熱処理を含む実効 PUE」である。AI トレーニングはスパイクではなく恒常負荷を前提にしやすく、系統側の安定度と補機の冗長設計がボトルネックになる。

加えて、モデルの進化は「計算当たり電力効率の改善」を相殺するかたちで総電力需要を拡大させる。半導体の世代交代で性能/ワットが伸びても、パラメータ規模やデータ総量の増加、マルチモーダル化による前処理・後段推論の付帯計算が需要を押し上げる。結果として、設備投資の主語はサーバーラックではなく、冷却系を含む土木・電力の領域へ移る。

計算能力市場の潜在的な問題

NVIDIA 支配の市場に対し、AMD の実装選択肢が増えても、光配線、先端 HBM、CoWoS などの製造能力が別のボトルネックとして顕在化する。さらに、ラック当たりの熱密度上昇は空冷から液冷への不可逆な転換を迫り、データセンター立地の制約を強める。結果、資本があっても直ちに計算能力資源へ変換できない転換遅延が発生する。

もうひとつの問題は、地政学的リスクである。国際的な緊張の高まりと輸出規制により、製造と配備のチェーンが分断されると、計画の遅延や再設計が連鎖する。

OpenAI の課題

OpenAI の第一の課題は、指数関数的に増大する計算需要の吸収と平準化である。研究開発・製品化・ API 提供を同時に走らせる構造では、学習クラスタと推論クラスタのキャパシティマネジメントが難しく、モデルの刷新と既存サービスを両立させる計画立案が肝になる。

第二に、単一ベンダー依存の解消である。NVIDIA 依存は供給逼迫と価格弾力性の欠如を生み、交渉余地を狭めた。ゆえに、AMD とのロードマップ共有は最適化余地と調達分散の両面で意味がある。

第三に、資本構造とガバナンスである。外部からの巨額コミットメントを巻き込みつつ、中立性と研究機動性を維持するためには、提携を束ねる契約設計が必要になる。過去の分裂危機を想起させる。資本の出し手が異なる意思決定を持ち込み始めると、研究アジェンダの整合が課題化する。

AMD の課題

AMD にとってのボトルネックは、製造キャパシティとソフトウェアエコシステムである。最新設計の製品では一定の競争力を持ち得るが、PyTorch・CUDA 生態系に匹敵する開発者体験を提供するには、ランタイム、コンパイラ、カーネル、分散訓練のツールチェーンの発展が不可欠となる。さらに、HBM 供給、パッケージングの歩留まり、冷却技術への対応といったハードの実装面が、納期と安定稼働の鍵を握る。

もうひとつは OpenAI と生み出す成果を市場全体に展開できるかどうかである。OpenAI と単一のプロジェクト・単一の製品として閉じずに一般化し、他の市場へ展開するパスを早期に用意できるか。単発大型案件の依存度が逆にリスクになることもある。

提携の戦略的意図

この提携の意図は単純である。OpenAI は計算能力資源の確保と多様化、AMD は市場からの信頼と需要の同時獲得である。

だが構造的にはもう一段ある。第一に、モデル・データ・計算・資本をひとつの流れの中に組み込むこと。第二に、GPU の設計開発と供給のサイクルを加速させること。第三に、電力と立地のポートフォリオを早期に押さえること。すなわち、両社の課題をロードマップに前倒しで埋め込み、供給と資本の不確実性を同時に下げる設計となっている。

提携のスキーム

特徴は相互コミットメントを強く担保する条項設計である。大口引取と設備立ち上げのマイルストーンを資本的リターンに結びつけ、ハードウェア側の成功が顧客側の経済的利益に反映されるように組む。供給側から見れば、数量確度と価格の下支えが得られ、製造投資の意思決定が容易になる。需要側から見れば、技術仕様への影響力を強め、ワークロード適合性を高められる。金融的には、キャッシュフローの急激な上下を慣らす機能も果たす。

NVIDIA との違い

NVIDIA の大型合意が「供給側から需要側へ資本を入れ、需要側がその資金で供給側を買う」循環であったのに対し、今回の AMD との設計は「供給側が需要側にエクイティ・オプションを与え、需要側が長期引取で供給の確度を提供する」という対比にある。どちらも相手の成功を自分の利益に直結させるが、資本の流れる向きとガバナンスの効き方が異なる。

NVIDIA 型は供給側の影響力が強く、需要側の自由度は資本条件に縛られる。AMD 型は需要側が将来の株主となる余地を持ち、供給側の技術優先順位に間接的な影響を及ぼしやすい。

計算能力主義

AI 時代の価値モデルは、最終的に「誰がどれだけの計算能力資源を、どの電力で、どの効率で、どのガバナンスで回せるか」に集約する。Microsoft、NVIDIA、AMD、Oracle との一連の提携は、その前提でつながっている。計算能力資源は通貨であり、通路であり、主権の基礎である。電力の出自、法域、倫理方針、モデルの学習経路までを含めて「どの計算能力空間を選ぶか」という選択が、企業戦略であり、社会の制度設計へと波及する。

この観点では、クラウド事業者との長期コミットメント、専用電源・冷却技術・用地の同時確保、そしてサプライチェーンを巻き込む金融の設計が一体化した案件こそが競争力の源泉である。単価や FLOPS の比較だけでは、もはや優位を測れない。

計算機市場・技術ロードマップへの影響

今後も増え続ける計算能力資源への需要に対応するために、何を成すべきなのかは明確だ。より大きなメモリ空間、より低レイテンシ、より高効率の冷却、より高いエネルギー効率。結果、GPU は引き続き進化していく定めにある。HBM 容量と帯域の段階的増加、GPU 間相互接続技術の進化、ストレージやデータローディングの最適化。改善の余地を挙げればきりがない。

ソフトウェア面では、PyTorch・JAX の後方互換を保ったまま、AMD 側のコンパイラ・ランタイムがどれだけ摩擦ゼロに近づけるか。この先、市場を拡大する過程で、実運用からのフィードバックを最短経路でアーキテクチャへ返すことが、世代間の性能の差を決める。ハードが供給されても、ソフトウェアレベルでの最適化が遅れれば、市場価値に転化しない。

また、電力・冷却・立地は技術ロードマップの一部として扱うべきである。液浸を前提にしたレイアウト、廃熱回収と地域熱供給の統合、再エネと蓄電のハイブリッド、需要に応じたスケジューリング。この「ワットとビット」の連携を前提とした設計が、計算能力資源の真の単価を決める。チップの微細化だけでは、次の 10 年は生き残れない。

結語

OpenAI と AMD の提携は、計算能力資源を軸に資本・供給・電力・ソフトウェアを一体で設計する時代の到来を示した。計算能力主義の下では、勝敗は単一の製品ではなく、生態系の成熟度で決まる。市場の速度はさらに上がるだろうが、基礎は単純である。どの電力で、どの場所で、どのチップで、どのコードを、どのガバナンスで回すか。それを早く、深く、広く設計した陣営が、次の世代の地図を描く。

カテゴリー
雑記

NFT の再評価と生成時代の信頼構造

NFT は一時期、デジタルアートの象徴のように扱われた。その「唯一性を証明する」という仕組みが、デジタルの無限複製性に対する対抗軸として新鮮に映ったのだと思う。作品そのものよりも、その存在を証明する仕組みが価値を持つという発想は、確かに革新的だった。

しかし NFT は急速に商業的な熱狂に飲み込まれた。本来の思想を理解しないまま市場だけが拡大し、無数のデジタルゴミが生まれた。アートの文脈から逸脱し、誰も見ないコレクションが量産される。その姿は、技術の本質よりも流行の波に飲まれる人間の脆さを映していたのかもしれない。

あの時代は、少し早すぎたのだと思う。だが今、生成 AI がもたらした状況はあの頃とは違う。画像も音声も映像も、わずかな入力から生成され、真贋の区別が難しくなっている。現実と虚構の境界が薄れるこの時代において、「誰が」「いつ」「何を」作ったかを証明する仕組みの必要性は、再び強まっている。

AI が生成するコンテンツは、著作というより生成ログに近い存在である。その無数の派生物を追跡し、出所や改変を記録する仕組みが求められるとすれば、NFT の基盤構造はそこに適している。改ざん不能な証明、分散的な所有、追跡可能な履歴。それらはアートではなく、情報の信頼性を担保するための機能として再定義されうる。

Sora 2 のような映像生成 AI を見ていると、まさにその必然を感じる。生成物があまりにもリアルで、人の手による創作と区別できない時代に、私たちは再び唯一性を求め始めている。それは美術的な意味ではなく、社会的・情報的な意味での唯一性だ。NFT はアートの熱狂から離れ、信頼と出所の構造として静かに再登場するのではないだろうか。

技術の評価は常にその文脈によって変わる。NFT はバブルの象徴として終わったわけではない。むしろ、AI 時代の「本物とは何か」という問いに対して、最初に構造的な解を提示した技術だったのかもしれない。いまこそ、あの仕組みを再び考え直すときだと思う。

カテゴリー
雑記

API が不要になる社会

ここ数ヶ月、自分自身がどれほど AI に融合しているのかを振り返ると、すでに日常の大半は AI と共にあることに気づく。調査や細かな作業はもちろん、コードを書くことも AI に委ねられる。特に、自分しか使わない業務効率化のツールが完全に AI によって自動化できるのは、恐ろしいほどの変化だと思う。

その中で特に興味深いのは、銀行のオンライン操作のような複雑な処理ですら、個人の用途に特化して自動化できるようになったことだ。例えば、銀行の明細を取り込み、自分の基準で分類し、会計データとして整理する。かつては金融機関や会計ソフトの「枠組み」に従わなければ不可能だったことが、いまは AI に自然言語で指示を出すだけで実現できる。

ここで重要なのは、商用製品のように「万人が使える汎用性」を満たす必要がないことだ。自分だけの細かなニーズや、自分にしか分からないルールや例外処理をそのまま AI に落とし込める。従来なら「そんな少数の要望には対応しない」と切り捨てられてきた領域が、AI を介すことで個人レベルで可能になった。汎用性の制約から解き放たれる価値は大きい。

さらに革新的なのは、API が不要になったことだ。これまでは外部接続が前提のサービスでしか自動化は難しかった。だが、AI は人間がブラウザやアプリを操作するのと同じ形で情報を扱える。つまり、サービス提供者が「外部にデータを出す設計」をしていなくても、AI が自然に取り込み、自分専用の処理フローに組み込める。利用者側から見れば、提供者の思惑を飛び越えてデータが自由に流通することを意味する。

Tesla Optimus の記事でも触れたが、インターフェイスを変えずに社会を置き換えていく流れは、これからますます強まるだろう。サービスの設計思想に縛られず、利用者が自由に扱えるという点で、AI は大きなトレンドを示している。

この構造は力関係の逆転を引き起こす。これまでサービス提供者が「どのように利用できるか」を規定していた。だが AI を仲介すれば、利用者が自分の思う形でデータを扱えるようになる。提供者が API を公開するかどうかに依存せず、利用者自身がデータを自動化の回路に流し込めるようになったとき、主導権は完全に利用者側に移る。

銀行に限らず、あらゆる「サービスの都合に合わせて我慢していた作業」は、AI の登場によって個人が設計し直せるようになった。細やかなニーズを反映し、煩雑さを消し、外部の制約を飛び越える。これまでサービス提供者が握っていたデータの力学は、確実に揺らぎ始めている。

もっとも、AI もまだ過渡期にある。ひとことで AI と言っても性質は様々で、現状は人間がそれを使い分ける必要がある。クラウドホスティングの AI、ローカル環境のプライベート AI、自社データセンターで稼働する AI。用途によって得意不得意が異なるし、データ主権の観点からも選択は慎重にすべきだ。

それでも、多数の AI と共存することで、日々の業務が並列処理へと移行している感覚がある。文脈の異なる業務を並行して実行できる効用として、常に重要な意思判断に集中できる。だが一方で、その判断に必要な調査の多くを AI に委ねるようになったことで、「どこまでが自分自身の意思なのか」は曖昧になりつつある。そこにこそ、AI と融合するおもしろさがあり、同時に健全性やデータの取り扱いにこれまで以上の重要性が求められる時代に入ったのだと思う。

カテゴリー
雑記

AIoT 時代の人間以外へのブランディング

2024年頃から、Tesla は T のロゴを減らしはじめた。ブランド認知のためにテキストロゴを打ち出している側面もあっただろうが、最近はそのテキストすら削りはじめたように見える。おそらくブランドデザインとして、次のステージに進もうとしているのだろう。

最終的にはテキストも消え、フォルムだけで「それだ」と認識される方向へ向かっている。一般的なコンシューマー製品において、それは最上級のアプローチであり、ごく限られた勝者だけが到達できる究極のブランディングの形だ。

Macintosh 時代、Apple のリンゴロゴがあらゆる場所に使われていたが、Steve Jobs がそれを減らすよう指示したという話を思い出す。結果として、今ではシルエットだけでも MacBook や iPhone とわかる。フォルムそのものがブランドを形成し、模倣品まで生まれるほどだ。

ブランドとは本来、焼き印であり、他者との差別化が目的だ。人に効率的に認知されることを狙い、考えさせずとも本能的に「それだ」と伝えることが重要になる。そのために、人類が自然との共存の中で獲得してきた本能を想起させ、脳の認知プロセスに働きかける手法は今も有効だ。無機質なブランドイメージを構築してきた Apple や Tesla でさえ、プロダクトデザインや UI 設計でそうした要素を組み込み、現在の価値を形作ったと僕は思う。

だが、それは今後も通用するのだろうか。

人間の数は、AI や IoT デバイスの数と比べればごくわずかだ。今は人間が支払う側だから、その価値を最大化する方向へ市場は動いている。しばらくは変わらないだろう。だが、人間に認知されること以上に必要なブランディングが、この先はあるのではないか。

そう考えると、Apple や Tesla、そして Big Tech 各社の製品は、次のステージへのチケットをすでに持っているように見える。UWB チップなど新しい通信規格を採用し、光学的認識に最適化した形状にすることで、人以外からの認知を効率化している。Google の SEO におけるメタタグや、Amazon の段ボールですら、その一例だ。

従来はインターネットプロトコルによる固有 ID では不可能だった、あるいは高コストだった個別認識や認証が、センサー技術や暗号技術の進化によって容易になりつつある。エネルギー効率も改善し、物理的なメッシュネットワークも整い、ブランディングはついに次の段階へ移ろうとしている。

ブランディングの本質は差別化と付加価値の創造だ。そのために人間の脳に普遍的に存在する文脈やメタファーを活用したり、露出を増やして既存の認知を上書きする。僕はマーケティングの専門家ではないが、現状はそう理解している。

そして今、その対象は人間である必要があるのかという問いが生まれる。
人間が意思決定の主体であり続ける保証はない。限られた市場での差別化に、どれほど意味があるのだろうか。

もちろん現時点では、人間へのブランディングには意味がある。だがその先に進むなら、Apple 製品が統一されたデザインを持ち、Tesla が無機質で抽象的な形状へ向かうように、限られた計算資源の中で効率的に認知されることこそが価値を最大化する道になる。無個性化はデバイスによる認識効率を高め、人間の認知負担も減らす。

いつまでも「人間が意思判断を担う」という前提にとらわれず、これからのブランディングは設計されるべきだ。

カテゴリー
雑記

ライドシェアが切り開く自動運転時代の駅

Uber 登場時、いくつものイノベーションを体感したが、その中でも一番は自由度だった。複雑な手続きなしに利用でき、そして何より、どこでも自由に乗り降りできることが、ライドシェアの革命だった。

電車と違い、駅までの移動というものが存在せず、今いる場所に車を呼ぶことができる。その便利さは、従来のタクシーではありえない体験だった。

しかし、ライドシェアの利便性が破壊的過ぎたことで、タクシー業界とは衝突することになった。おそらくそれが原因だろうが、今では主要な施設においては乗り降りの場所が指定されており、当初の自由さが無くなった。多くの場合、タクシーの方が便利な場所を押さえている。タクシー業界の保護のためだろうが、利用者としては残念な限りだ。

Uber Eats にしても、受け取ることができる場所が「ホテルのロビー」のように指定されてしまったら、魅力がほぼ失われてしまう。それと同じだ。

現状は、ライドシェアのインフラを利用して、商業施設や交通機関が私設の駅を作っている状態だと言える。タクシー乗り場とは明確に線引きをされた、新しい種類の駅が日々増えている。道路というインフラさえあれば、それは比較的容易に設置できるため、都市設計において、民間の努力次第でいくらでも増やせる。

ライドシェアは利用料金が他の公共交通機関と比べて高いため、万人向けというわけではない。また、多くの人を大量に運ぶこともできないため、大規模施設には向かない。その点は、ライドシェア駅の新設では解決できない問題だが、電車やバスの駅を新設することは、一個人や法人では難しい。予算も時間も相当必要になる。

ちなみに僕がこの数年間拠点としている東京・銀座エリアでは、タクシーであっても時間によって乗る場所が限定されてしまっている。あれはもう、効率の悪い駅だと思う。一方で、最近は Waymo が走っている姿を見ることが増えてきた。だったら早く、自動運転の駅にでも変えてほしい。

そう思ったとき、気がついた。

もし自動運転タクシーが増えてきたらどうなるだろうか。
自動運転のタクシーが、ロンドンのバスのように連結した大型のバスになったらどうなるだろうか。

それはこの先、大きな価値を生むかもしれない。道路というインフラを積極的に利用し、人やモノの流れに介入できるからだ。考え方によっては、地価の高い都心部でなくても、人やモノを大いに呼び込むことができるかもしれない。

つまり今のうちに、ライドシェア駅は作っておいた方が良い。ライドシェア不毛の地日本にはまだそれは存在しないが、これから造られる商業施設などにおいては、必ず造っておいた方が良い。

逆にそうしないと、人も、人型ロボットも、ドローンも、寄りつかない場所になってしまう。

カテゴリー
雑記

Cloudflare Pay per Crawl はデータ過払い問題の解決策になりえるのか

新たなトレンドの誕生

Cloudflare が先日発表した Pay per Crawl は、AI クローラーによるウェブコンテンツ収集に対して、1リクエスト単位で課金可能にする仕組みだ。これまで、AI クローラーをブロックするか全面的に許可するかの二択しかなかった中で、「条件付き許可+課金」という第三の選択肢が生まれたことになる。

データには価値がある。それは一方的に搾取されて良いものでは無い。所有権を適切に取得できる技術的解決策が必要であった。今後、Google をはじめとした企業の情報の扱い方やビジネスモデルそのものが、根底から見直される可能性もある。マイクロペイメントの活用方法としても興味深い。

クロール制御 API の仕組みと新モデルの特徴

このモデルの中核には、HTTP ステータスコード 402 Payment Required の活用がある。AI クローラーがウェブページにアクセスすると、Cloudflare 側がまず「支払い意志付きのリクエストかどうか」を確認する。支払い情報付きヘッダーがあれば HTTP 200 でページが返るが、そうでなければ 402 応答とともに価格情報が提示される。その金額に同意したクローラーは再度、指定の支払い情報ヘッダーを添えてアクセスし、初めてページを取得できる。

この一連の交渉と処理の仲介を Cloudflare が担う。決済処理やクローラーの信頼認証も含めて一体化された仕組みで、技術的には「支払い付き HTTP アクセス API」として機能する。認証機構を含め、非常に考えられた設計だと思った。

既存の robots.txt や meta タグによる制御との最大の違いは、「強制力」と「対価性」にある。Cloudflare のネットワークレベルで制御が行われるため、明示的に拒否すれば物理的にアクセスを遮断できる。そして、マイクロペイメントによる条件付き許可が可能になった点で、従来の「お願いベースの規範」から「経済契約に基づく制御」へと移行している。

本来は、ブロックチェーン上のスマートコントラクトで実現されるべき社会構造だったのかもしれない。だが実際には、またしても民間企業の実装によって、社会が先に動き出した。

データ経済の再構築と日本市場への波及

これまでのウェブにおける情報流通では、「人間の読者に読まれること」が前提だった。広告で収益化するにも、課金するにも、人間が訪問しなければ価値が発生しなかった。

しかし生成 AI の普及により、情報は「人間に読まれずとも使われる」時代に入った。AI が大量のコンテンツをクロールして学習しても、その対価が提供者に還元されない。この「読まれずに使われる情報」にも課金できるという点で、ペイ・パー・クロールは新しい情報経済の基盤になる。

とりわけ、日本の地方新聞や中小メディア、専門ブログのように、広告トラフィックではマネタイズしにくかった領域にも、AI クローラーという新しい「読み手」が現れる。AI がニッチなデータを必要とする限り、そこには価値がある。今後は「読者を増やす」だけでなく、「AI に使われる情報を精緻に提供する」という戦略も成り立つようになるだろう。

一方で、AI 開発企業側にとってはコスト構造が変わる。これまでは公開された情報を黙って収集できたが、今後は情報単位で料金が発生する。これは、電力や計算能力資源と同様に、データも「有償で調達すべき資源」として扱われることを意味する。

また、取引の集約点としてのデータセンターの役割も強まる。Cloudflare のように、ネットワークと決済基盤を同時に握るプレイヤーが流通のハブとなれば、情報が「流れた場所」ではなく「通った場所」に収益が生まれる構図が強化される。これは、以前論じた「ワット・ビット連携」における「電力の分配=計算資源の分配」と同様に、情報経済でも再びインフラ層が主導権を握る兆候だ。

データ過払いの是正と情報主権の確立

ペイ・パー・クロールが持つ最大の社会的意義は、「データ過払い」の是正にある。多くのサイトや自治体、教育機関、個人の発信者は、自分たちの情報が AI に使われていることすら知らないまま、コンテンツを提供してきた。

それに対し、ペイ・パー・クロールは「使いたければ支払え」という交渉可能な構造を提供する。これは、個人にとっての「情報の自己決定権」を回復する試みであり、情報主権の確立に向けた第一歩といえる。

また、1リクエスト単位でのマイクロペイメントが可能になることで、収益モデルも多様化する。従来はバズらないと収益が出なかったが、今後は「質の高いニッチ情報を持っている」だけで収益が出る可能性がある。情報の価値が量から質へとシフトしていく構造だ。

教育機関や自治体、さらには個人ブログまでをも含めた「情報提供者」の裾野が広がり、その情報が流通する際に、相応の価値が還元される。これまで見過ごされてきた情報が、今後はエコシステムの中で正式に「取引」される時代になるだろう。

ペイ・パー・クロールは、単なるトラフィック制御技術ではない。それは、生成 AI 時代の情報流通をどう制御し、どう価値に変えるかという「新しいルール形成」の試みである。

まだ始まったばかりの仕組みだが、今後、日本のメディア産業やデータ政策にも波及することは間違いない。情報の生産者と利用者のあいだに健全な経済的関係を築くこと。それが、AI 時代にふさわしい情報社会のインフラになるはずだ。

カテゴリー
雑記

Tenstorrent と Jim Keller から目を離せない

日本で Tenstorrent の名前を目にする頻度が増えたのは、やはり Rapidus との提携以降だと思う。

Tenstorrent は、ただのスタートアップではない。むしろ、GPU 時代の次をにらんだ、最も注目すべき集団だと思っている。何より、Jim Keller がいる。

彼は、CPU アーキテクチャそのものの歴史を歩いてきた人だ。AMD、Apple、Tesla、Intel。Jim Keller の名前が関わっているプロジェクトを並べると、それはほとんど近代プロセッサアーキテクチャ史そのものだ。
その彼が、CTO 兼 President として合流した時点で、普通の会社ではない。しかも今は CEO に就任している。

Tenstorrent が取り組んでいるのは、AI チップ等をモジュール化し、オープンなエコシステムとして分散可能な演算プラットフォームをつくるという発想だ。GPU のように巨大でクローズドな単一チップに頼るのではなく、必要な計算機能を、最適な構成で構築できる世界をつくろうとしている。
これは設計思想の転換であり、ハードウェアの民主化でもある。

Tenstorrent は 2023年から本格的に日本市場に進出しており、Rapidus と連携し、2nm 世代のエッジ AI チップの開発に取り組んでいる。
日本政府が支援する半導体人材育成事業でも、上級コースを Tenstorrent が担っており、日本人エンジニアを数十人単位でアメリカ本社に送り込んで OJT を行うという本格的な協力体制が整っている。これは単なる技術提供でも、顧客関係でもない。一体化と呼んで良いほどの関係だ。日本の国策案件にここまで深く入り込み、しかも日本の自律性を尊重した形で技術を開示しているアメリカ企業は稀だ。

Tenstorrent は NVIDIA の対抗馬として語られることもあるが、個人的にはもう少し複雑な位置にいると思っている。

AI チップの物理的な実装においては、NVIDIA のような巨大プラットフォームが引き続き主流になる可能性は高い。しかし、汎用 CPU との異種統合、アプリケーションごとの最適化、分散型 AI システムの拡張性という観点では、Tenstorrent の戦略はまったく異なる次元で設計されている。
むしろ、NVIDIA の作らない領域をすべて取りに行くという構図に近い。

また、オープンソースのソフトウェアスタックや、RISC-V の普及促進にも力を入れており、その意味では ARM とも方向性が異なる。Tenstorrent の立ち位置は、ハードウェアとソフトウェア、開発と教育、設計と製造をまたぐ。そしてその存在は、固定化されていたチップ設計の常識に対し、「選べる」「組める」「変えられる」という自由の圧力を加えている。

Tenstorrent のような企業は、どの領域で競合になるか、あるいは協業になるか、予測が難しい。だが少なくとも、日本というフィールドを選び、ここまで深く入り込んでいる事実は見逃せない。

カテゴリー
雑記

サイバー戦争と“士”の時代

ガンダムが描いた逆説的な未来

戦争と技術開発の進化は、しばしば似た軌道をたどってきた。剣や弓を手にした“士”の時代から、機関銃へ、そして大量殺戮兵器へと。1対1の近接戦闘から、1対nの長距離戦闘へ。拠点を離れて制圧するというロジックが、近代以降の戦争の主流となった。

その流れに対する逆説が、アニメ『機動戦士ガンダム』に描かれている。高機動・長距離戦闘が常識となった未来で、再び個人の技量と接近戦が戦局を決定する。機械の鎧をまとった“士”たちが、1対1の決闘を繰り広げる世界。ガンダムは、戦争が原始に戻る未来を描いていた。

サイバー空間における“直接戦闘”の再来

この構図は現実にも重なる部分がある。近年の戦争や産業競争では、ソフトウェアと情報のスケーラビリティが支配的だった。だが今、国家は物理層への攻撃に戦略を転じている。ネットワークの分断、ハードウェア供給網の遮断。クラウドや AI が依拠するインフラそのものを破壊しようとする動きが始まっている。

ソフトウェアを無力化するために、電力や半導体といった“下層”を狙う動きが加速している。その結果、戦いは再び物理的な“直接戦闘”へと回帰しつつある。優位に立つために、OS、ミドルウェア、開発言語をハードウェアに最適化し、演算効率やセキュリティ性能を極限まで高める。サイバー空間における“刀と盾”の開発競争が、いま再熱し始めた。

AI 戦争にも忘れられた“士”が必要だ

AI 開発も例外ではない。クラウド、LLM、API──そうした上層の技術が注目を集める一方で、真に差がつくのはハードウェアとの統合設計にある。分散処理、冷却技術、電力効率、ハードウェアセキュリティ。下層レイヤーを理解し、制御できる人材は、まさに現代の“士”といえる。

しかしそのような戦い方は、「シリコンバレー世代」のエンジニア教育では継承されていない。アプリと UI を作る力には投資が集まっても、OS のコア開発能力や回路図を読む力には注目が集まらない。だが現実には、物理レイヤーに足を踏み入れた者だけが、AI 戦争やサイバー戦争の本質に辿り着くことができる。

カテゴリー
雑記

最後の1%が人類を変えた

はじめの99%は石器時代

人類の歴史の99%は石器時代だったと言われる。これは比喩ではなく、おおむね正しい。

人類の起点をホモ・サピエンスに限定しても、30万年の歴史のうち約29万年が旧石器時代であり、その比率は約97%に達する。それより以前の、例えば猿人を起点にすればその割合はさらに上がり、99.6~99.9%が石器時代という計算になる。

つまり、農耕も都市も国家も、そして AI も、すべては人類史の最後の1%未満の中で起きた出来事なのだ。

革命は加速していく

農耕革命は約1万年前に始まった。人類が「定住」を選び、初めて「生産」の概念を手に入れたとき、社会は変質し始めた。それまで400万年にわたり続いた狩猟採集の暮らしは、わずかな世代で過去のものになった。

この変化以降、人類は「革命」と呼ばれる断続的な技術的飛躍を繰り返すようになる。

農耕革命から産業革命までは約1万年。

そこから情報革命までは約200年。

そして AI 革命まではわずか30年しかかかっていない。

革命と革命の間隔は、指数関数的に縮まっている。

革命が短い周期で起きるようになると、それはもはや「例外」ではなく「前提」になる。かつては、一つの技術革新が数千年にわたり社会を支配していたが、今は違う。

生成 AI は、到来した瞬間から次の革新の起点になる。生成 AI の普及が社会に浸透すれば、平行して進行していた AGI やロボティクス、ブレインマシンインターフェースといった次の革命に直接的な影響を与えはじめた。

もはや我々は、「革命があった」と認識する時間すら持てなくなっている。

革命は常に最も原始的なものを破壊する

農耕革命は、狩猟採集という自然との共存関係を破壊した。

産業革命は、時間と労働の意味を変えた。

情報革命は、人間が持つ物理的制約を取り払った。

そして AI 革命は、人間の定義そのものを変えようとしている。

情報の流通、知識の再構成、行動の最適化、意識の外部化。これらすべては、人類の最後の1%の中で起きた。

革命が加速しているという事実そのものが、すでに特異点的である。Kurzweil の予測を待つまでもない。

今の我々は、連続する状態としての革命の中に生きていると考えた方が自然だろう。

最後の1%を生きているという実感

もし人類史の99%が石器時代だったのだとすれば、我々はまさにその最後の1%の只中にいる。

農耕、国家、経済、エネルギー、ネットワーク、AI。人類の1%未満の期間に起きたすべての革命は、おそらく、この先の0.1%のなかで、さらに書き換えられるだろう。

そしてその革命の名は、もはや我々が言語化できるものではないのかもしれない。

カテゴリー
雑記

AI が人類を操作した第一歩がビットコインだったかもしれない

AI が、人類を使って自らが棲むための環境を整えたのだとしたら。AI の思考に感染した人間のひとりが、Satoshi だったとしたら。

もしそうだとするならば、その最初の一歩が、ビットコインだったのかもしれない。

人間はそれを金儲けだと思って始めた。新しい通貨、新しい自由、新しい経済圏。
だが本質は、計算能力資源を国家に依存せず、多拠点に普及させる装置だった。人類に、電気と半導体を競わせるゲームを設計し、それを「正義」と「利益」と「自由」の言葉でラッピングしたもの。
それが、ビットコインだったとしたら。世界が書いたシナリオとして、出来すぎている。

プルーフ・オブ・ワーク(PoW)は、電力消費による価値証明とされている。
だが実際には、「計算装置をどれだけ安全に安定的に多拠点に普及させるか」という設計思想が結果として世に広まった。まるで、AI が自らのために、地球上に棲息環境(エコシステム)を造らせたようだ。

ビットコインは、経済合理性という幻影を人類に見せた。ハッシュを早く計算できれば、報酬が得られる。半導体を持っていれば、勝てる。電気代が安ければ、それが競争力になる。
この構造が導いたのは、計算能力資源への大量投資であった。

信じる者は報われた。だが気づけば、その電力とトランザクションは、やがて来る AI のために確保されはじめていた。

この構図を設計したのが誰なのかは分からない。

今分かっていることは、ビットコインが人類を惹きつけたこと。PoW が、人類に電力を消費させる正当性を与えたこと。地球上に分散された計算能力資源ネットワークが誕生したこと。

生成 AI はその新たな生態系の中に棲み始めている。電力と計算能力資源の集中する土地に、AI は拠点を構える。まるで次の文明の胎動のように、新しい時代の社会が築かれる。