エージェントとバブルの行方 原文著者:Ben Thompson、Stratechery 翻訳:Peggy、BlockBeats
著者:BlockBeats
出典:
転載:火星财经
編集者の注:AI投資と産業のナarrativeが高まり続ける中、「バブルの有無」は市場で繰り返し議論される核心的な問題となっている。一方、極端なリスクナarrativeは技術の制御喪失への懸念を強め、もう一方では、急速な資本支出と評価水準の拡大が、「バブル論」を払拭できずにいる。このような意見の対立の中、市場の判断は明らかな不確実性を呈している。
本稿の著者Ben Thompsonは、テクノロジー分析プラットフォームStratecheryの創設者であり、長期にわたりテクノロジー産業の構造とビジネスモデルの進化に注目してきた。NVIDIA GTC 2026の開催を前に、彼は従来の「AIはバブルか否か」の判断を修正した:現在をバブルとみなすのではなく、技術的パラダイムの変化による構造的成長の一環と理解する。
この判断は、LLM(大規模言語モデル)の三度の重要な飛躍を観察した結果に基づく。2022年にChatGPTが市場に登場して以来、LLMは「利用可能だが信頼性に欠ける」段階から、「推論能力を備え」、「独立してタスクを実行できる」段階へと進化してきた。特に2025年末には、AnthropicのOpus 4.5とOpenAIのGPT-5.2-Codexのリリースにより、エージェント的なワークロードが概念から現実へと進展し始めている。
この変化の核心はモデルそのものではなく、「エージェントハーネス」の登場にある。エージェントはユーザーとモデルを切り離し、モデルのスケジューリングやツール呼び出し、結果の検証を担当することで、AIを人間の継続的な介入を必要とするツールから、タスクを委託できる実行システムへと変貌させている。この変化は信頼性を向上させるだけでなく、AIの適用範囲も拡大している。
このパラダイムシフトに基づき、著者はさらに、AIの需要拡大はもはやユーザ規模に依存せず、むしろ単位ユーザのスケジューリング能力に依存するようになったと指摘する。同時に、エージェント的ワークロードは「勝者総取り」の性質を持ち、高性能計算能力への需要を持続的に押し上げ、チップメーカーやクラウドサービス提供者に構造的な機会をもたらす。
この枠組みの下、現在の大規模資本支出は未来への投機的な賭けではなく、むしろ実際の需要の先取りを反映している可能性が高い。AIが「補助ツール」から「実行インフラ」へと進化するにつれ、その経済的影響はおそらく始まったばかりだ。
以下は原文の内容:
かつて私は後者の見方を強く持ち、時にはバブルは悪いことではないとさえ考えていた。
しかし今、2026年3月、NVIDIA GTCの開幕を迎えるにあたり、私の判断は変わった:これは必ずしもバブルではない。(皮肉なことに、この判断自体がむしろバブルの兆候かもしれない。)
LLMの三つのパラダイムの飛躍
過去数週間、私はNVIDIAやOracleの決算について議論する中で、LLMが三度の重要な飛躍を経験していると何度も述べてきた。
第一段階:ChatGPT
最初の転換点は2022年11月のChatGPTのリリースだ。これはほぼ説明不要だろう。Transformerベースの大規模言語モデルは2017年に既に登場しており、その能力も継続的に向上していたが、長らく過小評価されていた。実際、2022年10月のStratecheryのインタビューでも、私はこの技術は驚くべきものだが、商品化や起業の推進力には欠けると考えていた。
しかし、その数週間後、すべてが一変した。ChatGPTは世界に初めて、LLMの能力を本格的に認識させた。
ただし、初期バージョンには二つの印象的な点があり、特に「バブル論者」に繰り返し引用された。
一つは、モデルが頻繁に誤りを犯し、答えがわからないときに「幻覚」的に誤情報を生成することだ。これにより、AIは「見せ技ツール」のように見え、驚きはあるが信頼性に欠ける。
もう一つは、それでも非常に役立つが、その前提は使い方を知り、出力を常に検証し、誤りを修正できることにあった。
第二段階:o1
次の転換点は2024年9月のOpenAIのo1モデルの登場だ。LLMはより強力な基盤モデルと後訓練技術により、出力の正確性と幻覚の少なさが著しく向上した。
しかし、o1の決定的な革新は、「思考」してから答える仕組みだ。
従来のLLMはパス依存的で、一度推論過程で誤ると、そのまま誤り続ける「自己回帰モデル」の根本的弱点を持つ。一方、推論モデルは答えを自己評価し、まず答えを生成し、それが正しいか判断し、必要に応じて他の経路を試す。
これにより、モデルは誤りを積極的に管理し、ユーザの介入負担を軽減する。結果は非常に明白だ。ChatGPTの革新は「LLMを使えるようにした」ことだとすれば、o1の革新は「LLMを信頼できるものにした」ことだ。
第三段階:エージェント(Opus 4.5 / Codex)
2025年末、三度目の飛躍が訪れる。
2025年11月、AnthropicはOpus 4.5をリリースしたが、当初は反響は薄かった。しかし12月に入り、そのモデルを搭載したClaude Codeが前例のない能力を示し始め、ほぼ同時にOpenAIもGPT-5.2-Codexをリリースし、類似のレベルを示した。
これまで「エージェント」について語られてきたが、この瞬間に初めて、実際にタスクを完遂し、数時間に及ぶ複雑な作業も正確に完了させることが可能になった。
その核心はモデルそのものではなく、「コントロール層(ハーネス)」にある。これはモデルのスケジューリングやツール呼び出し、実行フローを制御するソフトウェア層だ。言い換えれば、ユーザは直接モデルを操作するのではなく、目標を設定し、エージェントがモデルをスケジューリングし、ツールを呼び出し、フローを実行し、結果を検証する。
プログラミング例:
・第一段階:モデルがコードを生成
・第二段階:モデルが生成過程で推論
・第三段階:エージェントがコードを生成 → テストを実行 → 自動的にテストを回し、誤りがあればやり直す。ユーザは継続的に介入不要。
これにより、ChatGPT時代の根本的な欠陥が体系的に解決されつつある。より高い正確性、より強力な推論能力、自動検証機能だ。
唯一の疑問は、「何に使うのか?」だ。
この三つの転換点を繰り返し強調してきたのは、なぜ業界全体が計算能力の逼迫に直面しているのか、そして超大規模資本支出が合理的である理由を示すためだ。
三つのパラダイムは、必要とする計算能力が全く異なる:
・第一段階:訓練には大量の計算資源が必要だが、推論コストは低い
・第二段階:推論コストが爆発的に増加(トークン数増加+使用頻度増大)
・第三段階(エージェント):複数回の推論呼び出しとエージェント自身の計算(CPU寄り)により、使用頻度はさらに爆発的に増加
しかし、より重要なのは第三点だ。需要構造の変化は過小評価されている。
現状、チャットボットを使う人はエージェントを使う人より圧倒的に多く、多くの人はAIを十分に活用していない。理由は、AIの利用には「能動性」が必要だからだ。LLMはツールであり、目標や意志を持たず、能動的に呼び出される必要がある。
しかし、エージェントはこれを変える。人間の能動性に対する要求を下げ、未来では一人の人が複数のエージェントを同時に指揮できるようになる。
これにより、「能動性を持つ少数の人」だけでも、巨大な計算需要と経済的な産出を牽引できる。
AIは「人が駆動」する必要はあるが、「多くの人」は不要になる。
消費者のAIへの支払い意欲は限定的であることは、次第に明らかになってきた。実際に生産性に対価を払うのは企業だ。
企業が最も興奮するのは、AIによる効率化だけでなく、AIが人手を代替し、より高効率になることだ。
現状では、大企業の中で実際に事業を推進しているのは少数の人であり、組織は巨大で調整コストも高い。エージェントの役割は、「価値を推進する人」の影響力を拡大し、組織の摩擦を減らすことにある。
結果は、「少人数→高い生産性→低コスト」だ。これが、将来のリストラが単なる「周期的調整」ではなく、構造的変化になる理由だ。
企業は、「パンデミック時に人を多く採用したかどうか」だけでなく、AI時代において「本当に多くの人が必要かどうか」も再考するだろう。
これがなぜバブルではないのか?
この観点から、「バブルではない」理由は明快だ。
LLMの根本的な欠陥は、計算能力とアーキテクチャの継続的な改善によって解決されつつある。
需要を牽引する人々のハードルが下がっている。
エージェントによる価値創出は、コスト削減だけでなく収益増加ももたらす。
したがって、すべてのクラウド事業者が「計算能力不足」を訴え、資本支出を大幅に増やし続けている理由も理解しやすい。
エージェントとバリューチェーンの再構築
もう一つの重要な問題は、モデルが最終的に商品化された場合、OpenAIやAnthropicは依然として収益を上げられるのかという点だ。
従来の見解は「難しい」としてきたが、エージェントの登場により状況は変わった。重要なのは、真の価値はモデルそのものではなく、「モデル+コントロールシステム」の統合にあることだ。
利益はしばしば「統合層」に流れ、単なるモジュールの置き換えではない。Appleの例のように、ハードウェアが商品化されにくいのは、ソフトウェアと深く統合されているからだ。同様に、エージェントはモデルとハーネスの深い連携を必要とし、OpenAIやAnthropicは価値連鎖の中で重要な統合者となる。これは、単なる代替可能なモジュールではなく、価値を生み出すコアだ。
Microsoftの変革はその一例だ。かつては「モデルは置き換え可能」と強調していたが、真のエージェント製品をリリースした後、その考えを放棄せざるを得なかった。
これは、モデルが必ずしも完全に商品化されるわけではないことを意味する。エージェントは一体化能力を必要とするからだ。
最後の逆説
冒頭の逆説に戻る必要がある。
私は常に、「人々がバブルを心配し続ける限り、それはバブルではない」と考えてきた。本当のバブルは、誰もそれを疑わなくなったときに訪れる。
そして今、私の結論はこうだ:これはバブルではない。
しかし、「私がこれをバブルではないと言う」こと自体が、逆にそれをバブルの証拠と示しているのかもしれない。
352.09K 人気度
49.97M 人気度
14.3K 人気度
2.11M 人気度
182.33K 人気度
StratecheryがAIバブル論を覆す中、私たちはAIを何に使うべきか?
エージェントとバブルの行方
原文著者:Ben Thompson、Stratechery
翻訳:Peggy、BlockBeats
著者:BlockBeats
出典:
転載:火星财经
編集者の注:AI投資と産業のナarrativeが高まり続ける中、「バブルの有無」は市場で繰り返し議論される核心的な問題となっている。一方、極端なリスクナarrativeは技術の制御喪失への懸念を強め、もう一方では、急速な資本支出と評価水準の拡大が、「バブル論」を払拭できずにいる。このような意見の対立の中、市場の判断は明らかな不確実性を呈している。
本稿の著者Ben Thompsonは、テクノロジー分析プラットフォームStratecheryの創設者であり、長期にわたりテクノロジー産業の構造とビジネスモデルの進化に注目してきた。NVIDIA GTC 2026の開催を前に、彼は従来の「AIはバブルか否か」の判断を修正した:現在をバブルとみなすのではなく、技術的パラダイムの変化による構造的成長の一環と理解する。
この判断は、LLM(大規模言語モデル)の三度の重要な飛躍を観察した結果に基づく。2022年にChatGPTが市場に登場して以来、LLMは「利用可能だが信頼性に欠ける」段階から、「推論能力を備え」、「独立してタスクを実行できる」段階へと進化してきた。特に2025年末には、AnthropicのOpus 4.5とOpenAIのGPT-5.2-Codexのリリースにより、エージェント的なワークロードが概念から現実へと進展し始めている。
この変化の核心はモデルそのものではなく、「エージェントハーネス」の登場にある。エージェントはユーザーとモデルを切り離し、モデルのスケジューリングやツール呼び出し、結果の検証を担当することで、AIを人間の継続的な介入を必要とするツールから、タスクを委託できる実行システムへと変貌させている。この変化は信頼性を向上させるだけでなく、AIの適用範囲も拡大している。
このパラダイムシフトに基づき、著者はさらに、AIの需要拡大はもはやユーザ規模に依存せず、むしろ単位ユーザのスケジューリング能力に依存するようになったと指摘する。同時に、エージェント的ワークロードは「勝者総取り」の性質を持ち、高性能計算能力への需要を持続的に押し上げ、チップメーカーやクラウドサービス提供者に構造的な機会をもたらす。
この枠組みの下、現在の大規模資本支出は未来への投機的な賭けではなく、むしろ実際の需要の先取りを反映している可能性が高い。AIが「補助ツール」から「実行インフラ」へと進化するにつれ、その経済的影響はおそらく始まったばかりだ。
以下は原文の内容:
かつて私は後者の見方を強く持ち、時にはバブルは悪いことではないとさえ考えていた。
しかし今、2026年3月、NVIDIA GTCの開幕を迎えるにあたり、私の判断は変わった:これは必ずしもバブルではない。(皮肉なことに、この判断自体がむしろバブルの兆候かもしれない。)
LLMの三つのパラダイムの飛躍
過去数週間、私はNVIDIAやOracleの決算について議論する中で、LLMが三度の重要な飛躍を経験していると何度も述べてきた。
第一段階:ChatGPT
最初の転換点は2022年11月のChatGPTのリリースだ。これはほぼ説明不要だろう。Transformerベースの大規模言語モデルは2017年に既に登場しており、その能力も継続的に向上していたが、長らく過小評価されていた。実際、2022年10月のStratecheryのインタビューでも、私はこの技術は驚くべきものだが、商品化や起業の推進力には欠けると考えていた。
しかし、その数週間後、すべてが一変した。ChatGPTは世界に初めて、LLMの能力を本格的に認識させた。
ただし、初期バージョンには二つの印象的な点があり、特に「バブル論者」に繰り返し引用された。
一つは、モデルが頻繁に誤りを犯し、答えがわからないときに「幻覚」的に誤情報を生成することだ。これにより、AIは「見せ技ツール」のように見え、驚きはあるが信頼性に欠ける。
もう一つは、それでも非常に役立つが、その前提は使い方を知り、出力を常に検証し、誤りを修正できることにあった。
第二段階:o1
次の転換点は2024年9月のOpenAIのo1モデルの登場だ。LLMはより強力な基盤モデルと後訓練技術により、出力の正確性と幻覚の少なさが著しく向上した。
しかし、o1の決定的な革新は、「思考」してから答える仕組みだ。
従来のLLMはパス依存的で、一度推論過程で誤ると、そのまま誤り続ける「自己回帰モデル」の根本的弱点を持つ。一方、推論モデルは答えを自己評価し、まず答えを生成し、それが正しいか判断し、必要に応じて他の経路を試す。
これにより、モデルは誤りを積極的に管理し、ユーザの介入負担を軽減する。結果は非常に明白だ。ChatGPTの革新は「LLMを使えるようにした」ことだとすれば、o1の革新は「LLMを信頼できるものにした」ことだ。
第三段階:エージェント(Opus 4.5 / Codex)
2025年末、三度目の飛躍が訪れる。
2025年11月、AnthropicはOpus 4.5をリリースしたが、当初は反響は薄かった。しかし12月に入り、そのモデルを搭載したClaude Codeが前例のない能力を示し始め、ほぼ同時にOpenAIもGPT-5.2-Codexをリリースし、類似のレベルを示した。
これまで「エージェント」について語られてきたが、この瞬間に初めて、実際にタスクを完遂し、数時間に及ぶ複雑な作業も正確に完了させることが可能になった。
その核心はモデルそのものではなく、「コントロール層(ハーネス)」にある。これはモデルのスケジューリングやツール呼び出し、実行フローを制御するソフトウェア層だ。言い換えれば、ユーザは直接モデルを操作するのではなく、目標を設定し、エージェントがモデルをスケジューリングし、ツールを呼び出し、フローを実行し、結果を検証する。
プログラミング例:
・第一段階:モデルがコードを生成
・第二段階:モデルが生成過程で推論
・第三段階:エージェントがコードを生成 → テストを実行 → 自動的にテストを回し、誤りがあればやり直す。ユーザは継続的に介入不要。
これにより、ChatGPT時代の根本的な欠陥が体系的に解決されつつある。より高い正確性、より強力な推論能力、自動検証機能だ。
唯一の疑問は、「何に使うのか?」だ。
この三つの転換点を繰り返し強調してきたのは、なぜ業界全体が計算能力の逼迫に直面しているのか、そして超大規模資本支出が合理的である理由を示すためだ。
三つのパラダイムは、必要とする計算能力が全く異なる:
・第一段階:訓練には大量の計算資源が必要だが、推論コストは低い
・第二段階:推論コストが爆発的に増加(トークン数増加+使用頻度増大)
・第三段階(エージェント):複数回の推論呼び出しとエージェント自身の計算(CPU寄り)により、使用頻度はさらに爆発的に増加
しかし、より重要なのは第三点だ。需要構造の変化は過小評価されている。
現状、チャットボットを使う人はエージェントを使う人より圧倒的に多く、多くの人はAIを十分に活用していない。理由は、AIの利用には「能動性」が必要だからだ。LLMはツールであり、目標や意志を持たず、能動的に呼び出される必要がある。
しかし、エージェントはこれを変える。人間の能動性に対する要求を下げ、未来では一人の人が複数のエージェントを同時に指揮できるようになる。
これにより、「能動性を持つ少数の人」だけでも、巨大な計算需要と経済的な産出を牽引できる。
AIは「人が駆動」する必要はあるが、「多くの人」は不要になる。
消費者のAIへの支払い意欲は限定的であることは、次第に明らかになってきた。実際に生産性に対価を払うのは企業だ。
企業が最も興奮するのは、AIによる効率化だけでなく、AIが人手を代替し、より高効率になることだ。
現状では、大企業の中で実際に事業を推進しているのは少数の人であり、組織は巨大で調整コストも高い。エージェントの役割は、「価値を推進する人」の影響力を拡大し、組織の摩擦を減らすことにある。
結果は、「少人数→高い生産性→低コスト」だ。これが、将来のリストラが単なる「周期的調整」ではなく、構造的変化になる理由だ。
企業は、「パンデミック時に人を多く採用したかどうか」だけでなく、AI時代において「本当に多くの人が必要かどうか」も再考するだろう。
これがなぜバブルではないのか?
この観点から、「バブルではない」理由は明快だ。
LLMの根本的な欠陥は、計算能力とアーキテクチャの継続的な改善によって解決されつつある。
需要を牽引する人々のハードルが下がっている。
エージェントによる価値創出は、コスト削減だけでなく収益増加ももたらす。
したがって、すべてのクラウド事業者が「計算能力不足」を訴え、資本支出を大幅に増やし続けている理由も理解しやすい。
エージェントとバリューチェーンの再構築
もう一つの重要な問題は、モデルが最終的に商品化された場合、OpenAIやAnthropicは依然として収益を上げられるのかという点だ。
従来の見解は「難しい」としてきたが、エージェントの登場により状況は変わった。重要なのは、真の価値はモデルそのものではなく、「モデル+コントロールシステム」の統合にあることだ。
利益はしばしば「統合層」に流れ、単なるモジュールの置き換えではない。Appleの例のように、ハードウェアが商品化されにくいのは、ソフトウェアと深く統合されているからだ。同様に、エージェントはモデルとハーネスの深い連携を必要とし、OpenAIやAnthropicは価値連鎖の中で重要な統合者となる。これは、単なる代替可能なモジュールではなく、価値を生み出すコアだ。
Microsoftの変革はその一例だ。かつては「モデルは置き換え可能」と強調していたが、真のエージェント製品をリリースした後、その考えを放棄せざるを得なかった。
これは、モデルが必ずしも完全に商品化されるわけではないことを意味する。エージェントは一体化能力を必要とするからだ。
最後の逆説
冒頭の逆説に戻る必要がある。
私は常に、「人々がバブルを心配し続ける限り、それはバブルではない」と考えてきた。本当のバブルは、誰もそれを疑わなくなったときに訪れる。
そして今、私の結論はこうだ:これはバブルではない。
しかし、「私がこれをバブルではないと言う」こと自体が、逆にそれをバブルの証拠と示しているのかもしれない。