カテゴリー
雑記

NFT の再評価と生成時代の信頼構造

NFT は一時期、デジタルアートの象徴のように扱われた。その「唯一性を証明する」という仕組みが、デジタルの無限複製性に対する対抗軸として新鮮に映ったのだと思う。作品そのものよりも、その存在を証明する仕組みが価値を持つという発想は、確かに革新的だった。

しかし NFT は急速に商業的な熱狂に飲み込まれた。本来の思想を理解しないまま市場だけが拡大し、無数のデジタルゴミが生まれた。アートの文脈から逸脱し、誰も見ないコレクションが量産される。その姿は、技術の本質よりも流行の波に飲まれる人間の脆さを映していたのかもしれない。

あの時代は、少し早すぎたのだと思う。だが今、生成 AI がもたらした状況はあの頃とは違う。画像も音声も映像も、わずかな入力から生成され、真贋の区別が難しくなっている。現実と虚構の境界が薄れるこの時代において、「誰が」「いつ」「何を」作ったかを証明する仕組みの必要性は、再び強まっている。

AI が生成するコンテンツは、著作というより生成ログに近い存在である。その無数の派生物を追跡し、出所や改変を記録する仕組みが求められるとすれば、NFT の基盤構造はそこに適している。改ざん不能な証明、分散的な所有、追跡可能な履歴。それらはアートではなく、情報の信頼性を担保するための機能として再定義されうる。

Sora 2 のような映像生成 AI を見ていると、まさにその必然を感じる。生成物があまりにもリアルで、人の手による創作と区別できない時代に、私たちは再び唯一性を求め始めている。それは美術的な意味ではなく、社会的・情報的な意味での唯一性だ。NFT はアートの熱狂から離れ、信頼と出所の構造として静かに再登場するのではないだろうか。

技術の評価は常にその文脈によって変わる。NFT はバブルの象徴として終わったわけではない。むしろ、AI 時代の「本物とは何か」という問いに対して、最初に構造的な解を提示した技術だったのかもしれない。いまこそ、あの仕組みを再び考え直すときだと思う。

カテゴリー
雑記

API が不要になる社会

ここ数ヶ月、自分自身がどれほど AI に融合しているのかを振り返ると、すでに日常の大半は AI と共にあることに気づく。調査や細かな作業はもちろん、コードを書くことも AI に委ねられる。特に、自分しか使わない業務効率化のツールが完全に AI によって自動化できるのは、恐ろしいほどの変化だと思う。

その中で特に興味深いのは、銀行のオンライン操作のような複雑な処理ですら、個人の用途に特化して自動化できるようになったことだ。例えば、銀行の明細を取り込み、自分の基準で分類し、会計データとして整理する。かつては金融機関や会計ソフトの「枠組み」に従わなければ不可能だったことが、いまは AI に自然言語で指示を出すだけで実現できる。

ここで重要なのは、商用製品のように「万人が使える汎用性」を満たす必要がないことだ。自分だけの細かなニーズや、自分にしか分からないルールや例外処理をそのまま AI に落とし込める。従来なら「そんな少数の要望には対応しない」と切り捨てられてきた領域が、AI を介すことで個人レベルで可能になった。汎用性の制約から解き放たれる価値は大きい。

さらに革新的なのは、API が不要になったことだ。これまでは外部接続が前提のサービスでしか自動化は難しかった。だが、AI は人間がブラウザやアプリを操作するのと同じ形で情報を扱える。つまり、サービス提供者が「外部にデータを出す設計」をしていなくても、AI が自然に取り込み、自分専用の処理フローに組み込める。利用者側から見れば、提供者の思惑を飛び越えてデータが自由に流通することを意味する。

Tesla Optimus の記事でも触れたが、インターフェイスを変えずに社会を置き換えていく流れは、これからますます強まるだろう。サービスの設計思想に縛られず、利用者が自由に扱えるという点で、AI は大きなトレンドを示している。

この構造は力関係の逆転を引き起こす。これまでサービス提供者が「どのように利用できるか」を規定していた。だが AI を仲介すれば、利用者が自分の思う形でデータを扱えるようになる。提供者が API を公開するかどうかに依存せず、利用者自身がデータを自動化の回路に流し込めるようになったとき、主導権は完全に利用者側に移る。

銀行に限らず、あらゆる「サービスの都合に合わせて我慢していた作業」は、AI の登場によって個人が設計し直せるようになった。細やかなニーズを反映し、煩雑さを消し、外部の制約を飛び越える。これまでサービス提供者が握っていたデータの力学は、確実に揺らぎ始めている。

もっとも、AI もまだ過渡期にある。ひとことで AI と言っても性質は様々で、現状は人間がそれを使い分ける必要がある。クラウドホスティングの AI、ローカル環境のプライベート AI、自社データセンターで稼働する AI。用途によって得意不得意が異なるし、データ主権の観点からも選択は慎重にすべきだ。

それでも、多数の AI と共存することで、日々の業務が並列処理へと移行している感覚がある。文脈の異なる業務を並行して実行できる効用として、常に重要な意思判断に集中できる。だが一方で、その判断に必要な調査の多くを AI に委ねるようになったことで、「どこまでが自分自身の意思なのか」は曖昧になりつつある。そこにこそ、AI と融合するおもしろさがあり、同時に健全性やデータの取り扱いにこれまで以上の重要性が求められる時代に入ったのだと思う。

カテゴリー
雑記

大企業の信用を無力化する嘘をつかないインフラ

製造業で「検査データの改ざん」が報じられるたびに思うのは、あれは一部企業の不正というより、社会構造全体の問題だということだ。

嘘をつかざるを得ない環境。嘘をついた方が得になる仕組み。そうした構造がある限り、不正は個人や組織の倫理ではなく、システムの問題として捉えるべきだと思っている。
だからこそ、技術的に「嘘をつかなくて済む仕組み」が登場したときには、ためらわずに使うべきだ。

大企業が提供する製品やサービスが高くても売れるのは、信頼があるからだ。品質や実績もさることながら、過去の取引履歴や顧客からの評価といった無形の信用が価格を支えている。
だが一度でもその信用が傷つけば、価格優位性は簡単に崩れる。そして、その影響はサプライチェーンを通じて連鎖的に広がる。社歴が長いほど、巻き込む範囲も深刻になる。

一方、ベンチャー企業は価格で勝負することが多い。実績がない代わりに、価格を下げて信頼を積み上げていくやり方だ。今まではそれが唯一の道だった。
でも今は違う。たとえば製造プロセスや検査結果をリアルタイムで記録し、改ざん不能な形で蓄積する仕組みがあればどうか。それがあるだけで、「嘘をついていない」という事実を客観的に証明できる。
つまり信頼の構築が、時間依存ではなくなる。積み上げ型の信頼から、仕組みによる信頼へと変わるのだ。

だから、これからモノづくりに挑む企業は、創業初期から以下の視点を持っておいた方がいい。

品質や検査データの改ざんが不可能であることを証明できる履歴を残しておくこと。大手企業で過去の改ざんが明るみに出た瞬間に、その透明性が逆転の武器になる。しかも、その履歴の価値は時間とともに上がっていく。だからこそ、「今すぐに始めること」が重要になる。
価格以外の競争力、つまり「信用という資産」を蓄えるために、データを可視化すること。これは後からでは絶対に手に入らない。

そして、すでに信用を持っている大企業にとっても、この構造変化は他人事ではない。
信頼されているからこそ高価格で勝負できるが、その信頼はひとつの不祥事で崩れる。しかも、歴史が長いほど不祥事の影響範囲は広がる。連結する企業の数だけ、不信の拡散速度は加速度的に増していく。
だから、いま必要なのは「嘘をつけない環境」そのものだ。リアルタイム監査による検査データの保証、サプライチェーン全体での透明性確保。そういった仕組みが導入されていれば、たとえ問題が起きても早期に発見し、影響範囲を最小限にとどめられる。
これはリスクヘッジであると同時に、現場の心理的安全性にもつながる。嘘をつく必要がなければ、現場は正直に仕事ができる。失敗があっても隠さず開示できる。開示されれば改善できる。

つまり、これは「不正を防ぐ」仕組みではなく、「信頼を育てる」仕組みだ。
その履歴があれば、将来にわたって企業は不正をしていないことを証明できるし、社会はそれをもとに取引先を選ぶようになる。データが資産になる時代において、「改ざん不能な履歴」ほど強力な証拠はない。

そして、その履歴は今すぐにしか積み上げられない。明日からでは遅い。
履歴があるということは、嘘をつく必要がなかったことの証明であり、誠実さの記録であり、未来の競争力だ。

カテゴリー
雑記

Amazon の限界(あるいは Alexa 呪文詠唱講座)

どう考えても間違っていると思う。Amazon Echo、つまり Alexa の挙動だ。

先に断っておくが、僕は大の Alexa 通であり、ファンだ。その分野を切り開いたイノベーターをリスペクトすると決めているので、ホームオートメーション、スマートスピーカーに関しては、徹底して Amazon のエコシステムを貫いている。HomePod はスピーカーとしてしか使っていないし、Siri に呼びかけることは無い。

インターネットの構造がまさにそうであるように、良くも悪くも中央集権構造で徹底して造られているのが、Alexa エコシステムだ。初期の頃はそれで良かった。すべての個人情報は Amazon に集約すれば安心だし、それでこその付加的な価値を感じられた。消耗品の購入リマインドや音声を通した商品の購入など、まさに Amazon エコシステムの賜だ。

しかし、それが一向に進化しない。AI そして IoT 時代のコンシューマーデバイスで乗り遅れた Amazon の悪いところが全部出ているように思う。ハードウェアとしての選択肢が増えたり、価格が驚くほど安くなっているのは良いとは思う。しかし、その進化の方向は、ユーザーとして僕が望んでいた方向性とは違う。

消費者の行動を一番把握しているのが Amazon なのだから、現在の判断は間違っていないのだろうし、きちんと誰もが欲しいものを提供しているとは思っている。でも、あるべきスマートスピーカーの形とは到底思えない。読書端末として市場で圧勝している Kindle でさえ、ソフトウェア側、インフラ側においては設計思想が、昔ながらのいつもの味になっている。

致命的だと思う問題の実例を記しておこう。

まず、複数の拠点を管理したら簡単に破綻する。今手元にある Alexa は、家やオフィス、合計4カ所を操作している。Echo 端末の数は、10台を超えている。その状況で「ただいま」と言えば電気が点いてほしいのは当然だが、そんなシンプルなワードで自動化すれば、すべての場所で電気が点く。それに、日本語では「電気」は「照明」ではなく「電源」と理解されてしまう。電気を消そうとすれば、すべて消える。下手をすれば、すべての場所で、すべての電源が落ちる。

それぞれの Echo 端末は、担当する家と部屋がはっきりと分かれており、担当する家電もすべて紐付けてある。それでも、簡単に越境し、権限を侵害し、余計なことをする。

解決策は、すべての家電に固有の名称を設定することや、すべての場所、部屋に応じた、全く異なった、解釈の間違えようのない命令文を設計することだ。つまり、一種の、自分と Alexa 専用の言語の構築である。

その実現プロセスは、プログラミングや、魔法の呪文に似ている。

Alexa + 対象とする部屋 + 対象とする (家電 or グループ) + 期待する挙動

この文法の基本を押さえた上で、個別に命令を考えて設計していくことになる。もちろん最初にやるべきは、ルールの設計であるべきだ。統一感のあるルールに従って、部屋や家電の固有名称を設計しなければならない。これを間違えると、いまどの対象に命令を発しているのかが分からなくなってしまう。

応用として、頻繁に使う呪文を別の呪文で表す技法がおすすめだ。定型アクションとして、特定の呪文によって、あらかじめ指定しておいた呪文を複数発動させる方法になる。引数を渡せるわけでは無いが、関数の呼び出しに似ている。

Alexa + 固有ワード

非常に便利で、複数の呪文を一括して呼び出せたり、呪文詠唱を短くできる利点があるのだが、注意点もある。一般用語や予約語と重複はできないのだ。つまり、「いってきます」などの予約語を使うと、挨拶を返されてしまったりする。

ではどうするか。文字通り、呪文と考えて設計するしかない。

例えば、僕がこれまでに様々なことを試した結果、毎日のように使うようになった呪文を挙げておく。なお、呪文の種類が今いる家や部屋などごとに異なるので、場所によってコンテキストを切り替えられる。

Alexa + バルス
該当する家のすべての照明を消して、その後掃除をする呪文。ゴミをゴミのように掃除する。

Alexa + 領域展開
バルスと同じだが、該当する家が違う。違いは、エンディングソングを流すこと。

Alexa + 簡易領域展開
領域展開の簡易版。掃除はしない。

Alexa + エンペラーモード
照明の色を切り替えて集中モードにする。また、iPhone/Mac を集中モードにし、一切の通知をオフにする。音楽と、部屋の外にあるサインの点灯によって、集中モードへの移行を外部に知らせる。

Alexa + (x) 号機 (出撃 or 撤退)
x に該当する識別番号を持つエアコンを起動する。応用として、全機の出撃や撤退も可能。

このような呪文が、数十個用意されている。正直、バカみたいだと自分でも思っている。しかし、そうしなければ命令が通じないし、呪文詠唱が長くなってしまう。

この例だけでも、いかに期待を外れた挙動なのかが伝わると思う。

正直、言語の認識精度に関しては、諦めている。日本語で使えばそうなるのは仕方なく、Amazon が悪いわけではない。ただ、英語と日本語を併用して使える仕様にはしてほしかった。とはいえ、Google もそれをうまくできているとは言えないので、単純に日本語の限界なのだろう。

他にも、Amazon においては、各種アカウントの統合に関して、そもそものデータベース構造や認証システムの構造に起因する問題を抱えている。たとえば、未だに複数の国の Amazon でアカウントを持っている人が統合を試みると、生涯つきまとう厄介な問題に直面することになる。ただし、これは今回の本題ではないので詳しくは書かない。

Amazon のすごさは、コンシューマー市場の理解と、なにより AWS、サーバーサイドでの影響力だ。だからこそ Alexa は今日も稼働し、誤った認証をせず、遠隔での操作も実現できている。

しかしその強みも、すでに時流から外れつつある。トッププレイヤーの Amazon が、イノベーションのジレンマの実例のように、エッジ側での演算や分散認証、個人情報の保護といった新しい領域では後れを取っている。むしろ、Apple の方が先を行っている。

もし Echo 端末側、Alexa に生成 AI が搭載されれば、まず目の前の重要な問題は解決されるだろう。しかし、その演算を Amazon らしくクラウド側で処理するとなれば、演算コストは跳ね上がる。エッジ側で処理するには端末価格が高騰し、そもそも既存のエコシステムを捨てなければならない。

いつの日か、呪文詠唱から解き放たれる日は来るのだろうか。

カテゴリー
雑記

AIoT 時代の人間以外へのブランディング

2024年頃から、Tesla は T のロゴを減らしはじめた。ブランド認知のためにテキストロゴを打ち出している側面もあっただろうが、最近はそのテキストすら削りはじめたように見える。おそらくブランドデザインとして、次のステージに進もうとしているのだろう。

最終的にはテキストも消え、フォルムだけで「それだ」と認識される方向へ向かっている。一般的なコンシューマー製品において、それは最上級のアプローチであり、ごく限られた勝者だけが到達できる究極のブランディングの形だ。

Macintosh 時代、Apple のリンゴロゴがあらゆる場所に使われていたが、Steve Jobs がそれを減らすよう指示したという話を思い出す。結果として、今ではシルエットだけでも MacBook や iPhone とわかる。フォルムそのものがブランドを形成し、模倣品まで生まれるほどだ。

ブランドとは本来、焼き印であり、他者との差別化が目的だ。人に効率的に認知されることを狙い、考えさせずとも本能的に「それだ」と伝えることが重要になる。そのために、人類が自然との共存の中で獲得してきた本能を想起させ、脳の認知プロセスに働きかける手法は今も有効だ。無機質なブランドイメージを構築してきた Apple や Tesla でさえ、プロダクトデザインや UI 設計でそうした要素を組み込み、現在の価値を形作ったと僕は思う。

だが、それは今後も通用するのだろうか。

人間の数は、AI や IoT デバイスの数と比べればごくわずかだ。今は人間が支払う側だから、その価値を最大化する方向へ市場は動いている。しばらくは変わらないだろう。だが、人間に認知されること以上に必要なブランディングが、この先はあるのではないか。

そう考えると、Apple や Tesla、そして Big Tech 各社の製品は、次のステージへのチケットをすでに持っているように見える。UWB チップなど新しい通信規格を採用し、光学的認識に最適化した形状にすることで、人以外からの認知を効率化している。Google の SEO におけるメタタグや、Amazon の段ボールですら、その一例だ。

従来はインターネットプロトコルによる固有 ID では不可能だった、あるいは高コストだった個別認識や認証が、センサー技術や暗号技術の進化によって容易になりつつある。エネルギー効率も改善し、物理的なメッシュネットワークも整い、ブランディングはついに次の段階へ移ろうとしている。

ブランディングの本質は差別化と付加価値の創造だ。そのために人間の脳に普遍的に存在する文脈やメタファーを活用したり、露出を増やして既存の認知を上書きする。僕はマーケティングの専門家ではないが、現状はそう理解している。

そして今、その対象は人間である必要があるのかという問いが生まれる。
人間が意思決定の主体であり続ける保証はない。限られた市場での差別化に、どれほど意味があるのだろうか。

もちろん現時点では、人間へのブランディングには意味がある。だがその先に進むなら、Apple 製品が統一されたデザインを持ち、Tesla が無機質で抽象的な形状へ向かうように、限られた計算資源の中で効率的に認知されることこそが価値を最大化する道になる。無個性化はデバイスによる認識効率を高め、人間の認知負担も減らす。

いつまでも「人間が意思判断を担う」という前提にとらわれず、これからのブランディングは設計されるべきだ。

カテゴリー
雑記

ライドシェアが切り開く自動運転時代の駅

Uber 登場時、いくつものイノベーションを体感したが、その中でも一番は自由度だった。複雑な手続きなしに利用でき、そして何より、どこでも自由に乗り降りできることが、ライドシェアの革命だった。

電車と違い、駅までの移動というものが存在せず、今いる場所に車を呼ぶことができる。その便利さは、従来のタクシーではありえない体験だった。

しかし、ライドシェアの利便性が破壊的過ぎたことで、タクシー業界とは衝突することになった。おそらくそれが原因だろうが、今では主要な施設においては乗り降りの場所が指定されており、当初の自由さが無くなった。多くの場合、タクシーの方が便利な場所を押さえている。タクシー業界の保護のためだろうが、利用者としては残念な限りだ。

Uber Eats にしても、受け取ることができる場所が「ホテルのロビー」のように指定されてしまったら、魅力がほぼ失われてしまう。それと同じだ。

現状は、ライドシェアのインフラを利用して、商業施設や交通機関が私設の駅を作っている状態だと言える。タクシー乗り場とは明確に線引きをされた、新しい種類の駅が日々増えている。道路というインフラさえあれば、それは比較的容易に設置できるため、都市設計において、民間の努力次第でいくらでも増やせる。

ライドシェアは利用料金が他の公共交通機関と比べて高いため、万人向けというわけではない。また、多くの人を大量に運ぶこともできないため、大規模施設には向かない。その点は、ライドシェア駅の新設では解決できない問題だが、電車やバスの駅を新設することは、一個人や法人では難しい。予算も時間も相当必要になる。

ちなみに僕がこの数年間拠点としている東京・銀座エリアでは、タクシーであっても時間によって乗る場所が限定されてしまっている。あれはもう、効率の悪い駅だと思う。一方で、最近は Waymo が走っている姿を見ることが増えてきた。だったら早く、自動運転の駅にでも変えてほしい。

そう思ったとき、気がついた。

もし自動運転タクシーが増えてきたらどうなるだろうか。
自動運転のタクシーが、ロンドンのバスのように連結した大型のバスになったらどうなるだろうか。

それはこの先、大きな価値を生むかもしれない。道路というインフラを積極的に利用し、人やモノの流れに介入できるからだ。考え方によっては、地価の高い都心部でなくても、人やモノを大いに呼び込むことができるかもしれない。

つまり今のうちに、ライドシェア駅は作っておいた方が良い。ライドシェア不毛の地日本にはまだそれは存在しないが、これから造られる商業施設などにおいては、必ず造っておいた方が良い。

逆にそうしないと、人も、人型ロボットも、ドローンも、寄りつかない場所になってしまう。

カテゴリー
写真

Def Con 33

AKATSUKI として。

カテゴリー
雑記

Cloudflare Pay per Crawl はデータ過払い問題の解決策になりえるのか

新たなトレンドの誕生

Cloudflare が先日発表した Pay per Crawl は、AI クローラーによるウェブコンテンツ収集に対して、1リクエスト単位で課金可能にする仕組みだ。これまで、AI クローラーをブロックするか全面的に許可するかの二択しかなかった中で、「条件付き許可+課金」という第三の選択肢が生まれたことになる。

データには価値がある。それは一方的に搾取されて良いものでは無い。所有権を適切に取得できる技術的解決策が必要であった。今後、Google をはじめとした企業の情報の扱い方やビジネスモデルそのものが、根底から見直される可能性もある。マイクロペイメントの活用方法としても興味深い。

クロール制御 API の仕組みと新モデルの特徴

このモデルの中核には、HTTP ステータスコード 402 Payment Required の活用がある。AI クローラーがウェブページにアクセスすると、Cloudflare 側がまず「支払い意志付きのリクエストかどうか」を確認する。支払い情報付きヘッダーがあれば HTTP 200 でページが返るが、そうでなければ 402 応答とともに価格情報が提示される。その金額に同意したクローラーは再度、指定の支払い情報ヘッダーを添えてアクセスし、初めてページを取得できる。

この一連の交渉と処理の仲介を Cloudflare が担う。決済処理やクローラーの信頼認証も含めて一体化された仕組みで、技術的には「支払い付き HTTP アクセス API」として機能する。認証機構を含め、非常に考えられた設計だと思った。

既存の robots.txt や meta タグによる制御との最大の違いは、「強制力」と「対価性」にある。Cloudflare のネットワークレベルで制御が行われるため、明示的に拒否すれば物理的にアクセスを遮断できる。そして、マイクロペイメントによる条件付き許可が可能になった点で、従来の「お願いベースの規範」から「経済契約に基づく制御」へと移行している。

本来は、ブロックチェーン上のスマートコントラクトで実現されるべき社会構造だったのかもしれない。だが実際には、またしても民間企業の実装によって、社会が先に動き出した。

データ経済の再構築と日本市場への波及

これまでのウェブにおける情報流通では、「人間の読者に読まれること」が前提だった。広告で収益化するにも、課金するにも、人間が訪問しなければ価値が発生しなかった。

しかし生成 AI の普及により、情報は「人間に読まれずとも使われる」時代に入った。AI が大量のコンテンツをクロールして学習しても、その対価が提供者に還元されない。この「読まれずに使われる情報」にも課金できるという点で、ペイ・パー・クロールは新しい情報経済の基盤になる。

とりわけ、日本の地方新聞や中小メディア、専門ブログのように、広告トラフィックではマネタイズしにくかった領域にも、AI クローラーという新しい「読み手」が現れる。AI がニッチなデータを必要とする限り、そこには価値がある。今後は「読者を増やす」だけでなく、「AI に使われる情報を精緻に提供する」という戦略も成り立つようになるだろう。

一方で、AI 開発企業側にとってはコスト構造が変わる。これまでは公開された情報を黙って収集できたが、今後は情報単位で料金が発生する。これは、電力や計算能力資源と同様に、データも「有償で調達すべき資源」として扱われることを意味する。

また、取引の集約点としてのデータセンターの役割も強まる。Cloudflare のように、ネットワークと決済基盤を同時に握るプレイヤーが流通のハブとなれば、情報が「流れた場所」ではなく「通った場所」に収益が生まれる構図が強化される。これは、以前論じた「ワット・ビット連携」における「電力の分配=計算資源の分配」と同様に、情報経済でも再びインフラ層が主導権を握る兆候だ。

データ過払いの是正と情報主権の確立

ペイ・パー・クロールが持つ最大の社会的意義は、「データ過払い」の是正にある。多くのサイトや自治体、教育機関、個人の発信者は、自分たちの情報が AI に使われていることすら知らないまま、コンテンツを提供してきた。

それに対し、ペイ・パー・クロールは「使いたければ支払え」という交渉可能な構造を提供する。これは、個人にとっての「情報の自己決定権」を回復する試みであり、情報主権の確立に向けた第一歩といえる。

また、1リクエスト単位でのマイクロペイメントが可能になることで、収益モデルも多様化する。従来はバズらないと収益が出なかったが、今後は「質の高いニッチ情報を持っている」だけで収益が出る可能性がある。情報の価値が量から質へとシフトしていく構造だ。

教育機関や自治体、さらには個人ブログまでをも含めた「情報提供者」の裾野が広がり、その情報が流通する際に、相応の価値が還元される。これまで見過ごされてきた情報が、今後はエコシステムの中で正式に「取引」される時代になるだろう。

ペイ・パー・クロールは、単なるトラフィック制御技術ではない。それは、生成 AI 時代の情報流通をどう制御し、どう価値に変えるかという「新しいルール形成」の試みである。

まだ始まったばかりの仕組みだが、今後、日本のメディア産業やデータ政策にも波及することは間違いない。情報の生産者と利用者のあいだに健全な経済的関係を築くこと。それが、AI 時代にふさわしい情報社会のインフラになるはずだ。

カテゴリー
雑記

Tenstorrent と Jim Keller から目を離せない

日本で Tenstorrent の名前を目にする頻度が増えたのは、やはり Rapidus との提携以降だと思う。

Tenstorrent は、ただのスタートアップではない。むしろ、GPU 時代の次をにらんだ、最も注目すべき集団だと思っている。何より、Jim Keller がいる。

彼は、CPU アーキテクチャそのものの歴史を歩いてきた人だ。AMD、Apple、Tesla、Intel。Jim Keller の名前が関わっているプロジェクトを並べると、それはほとんど近代プロセッサアーキテクチャ史そのものだ。
その彼が、CTO 兼 President として合流した時点で、普通の会社ではない。しかも今は CEO に就任している。

Tenstorrent が取り組んでいるのは、AI チップ等をモジュール化し、オープンなエコシステムとして分散可能な演算プラットフォームをつくるという発想だ。GPU のように巨大でクローズドな単一チップに頼るのではなく、必要な計算機能を、最適な構成で構築できる世界をつくろうとしている。
これは設計思想の転換であり、ハードウェアの民主化でもある。

Tenstorrent は 2023年から本格的に日本市場に進出しており、Rapidus と連携し、2nm 世代のエッジ AI チップの開発に取り組んでいる。
日本政府が支援する半導体人材育成事業でも、上級コースを Tenstorrent が担っており、日本人エンジニアを数十人単位でアメリカ本社に送り込んで OJT を行うという本格的な協力体制が整っている。これは単なる技術提供でも、顧客関係でもない。一体化と呼んで良いほどの関係だ。日本の国策案件にここまで深く入り込み、しかも日本の自律性を尊重した形で技術を開示しているアメリカ企業は稀だ。

Tenstorrent は NVIDIA の対抗馬として語られることもあるが、個人的にはもう少し複雑な位置にいると思っている。

AI チップの物理的な実装においては、NVIDIA のような巨大プラットフォームが引き続き主流になる可能性は高い。しかし、汎用 CPU との異種統合、アプリケーションごとの最適化、分散型 AI システムの拡張性という観点では、Tenstorrent の戦略はまったく異なる次元で設計されている。
むしろ、NVIDIA の作らない領域をすべて取りに行くという構図に近い。

また、オープンソースのソフトウェアスタックや、RISC-V の普及促進にも力を入れており、その意味では ARM とも方向性が異なる。Tenstorrent の立ち位置は、ハードウェアとソフトウェア、開発と教育、設計と製造をまたぐ。そしてその存在は、固定化されていたチップ設計の常識に対し、「選べる」「組める」「変えられる」という自由の圧力を加えている。

Tenstorrent のような企業は、どの領域で競合になるか、あるいは協業になるか、予測が難しい。だが少なくとも、日本というフィールドを選び、ここまで深く入り込んでいる事実は見逃せない。

カテゴリー
雑記

デジタル赤字

経済産業省 PIVOT プロジェクトのレポートを読んだ。

これまで個人的にも、電力と計算能力資源が国家間・企業間で価値の基軸になりつつあると繰り返し主張してきた。経産省 “デジタル経済レポート 2025” でも、まさに同じ問題意識を“デジタル赤字”という統計的ファクトで可視化している。「稼げる領域で稼げていない構造」が根本原因だと明示された点が重要だ。

また、報告書は SDX – Software Defined Everything を前提に、自動車や産業機械の輸出競争力までもがソフト依存になると警告する。SDX 時代の“隠れデジタル赤字”を直視し、長期視点で戦略を組み、早期に実行していくことが欠かせない。

具体的な実装アイデアとして、低層レイヤーの技術革新による業界スタンダードの奪還はもっと真剣に議論されるべきだと感じた。プラットフォームごと選択肢を他者に握られる未来だけは回避したい。その危機感を行政文書が公式に共有した意義は大きい。

レポートは危機感を訴え、行動を呼びかけている。対して、僕らが進める エッジ DC × 再エネ × 海外 JV の取り組みは、その一つの応えになり得ると思った。計算能力資源を保有し、得意領域を尖らせ、市場に展開する。それも国内完結ではなく、日本モデルを輸出する形で。ここ数年かけて描いた事業マップは、レポートの処方箋と重なっている。

やるべき事はぶれない。それを再確認できた。

未来は静かに、しかし確実に動き始めている。

先日主催したイベント、ENJIN のオープニングで掲げた言葉そのままだ。今日も淡々と、だが確信を持って実装していく。

モバイルバージョンを終了