Stratechery спростовує теорію бульбашки ШІ, що нам робити зі ШІ?

Заголовок оригіналу: Agent Over Bubbles
Автор оригіналу: Ben Thompson, Stratechery
Переклад: Peggy, BlockBeats

Автор оригіналу: BlockBeats

Джерело оригіналу:

Перепублікація: Mars Finance

Редакторський коментар: На тлі постійного зростання інвестицій в AI та наростання індустріальних наративів питання «чи існує бульбашка» вже стало ключовою темою для обговорення на ринку. З одного боку, екстремальні ризикові сценарії посилюють побоювання щодо неконтрольованого розвитку технологій; з іншого — швидке розширення капітальних витрат і рівнів оцінки активів змушують говорити про «бульбашку». У таких умовах ринкові оцінки стають дуже невизначеними.

Автор статті, Ben Thompson, засновник платформи аналізу технологій Stratechery, довгий час досліджує структуру технологічної індустрії та еволюцію бізнес-моделей. Напередодні конференції Nvidia GTC 2026 він переглянув свою попередню думку щодо «чи перебуває AI у бульбашці»: тепер він вважає, що це не бульбашка, а структурний ріст, викликаний зміною технологічної парадигми.

Це твердження базується на спостереженнях трьох ключових стрибків у розвитку LLM. З моменту першого показу великих мовних моделей ChatGPT у 2022 році, LLM пройшли від «доступних, але ненадійних» до «з можливістю логічного мислення», а потім — до «здатних виконувати завдання самостійно». Особливо наприкінці 2025 року, з виходом Anthropic Opus 4.5 і OpenAI GPT-5.2-Codex, агентні навантаження почали переходити від концепції до реальності.

Ключовий момент полягає не у самій моделі, а у появі «агентського хабу» (agent harness). Агент відокремлює користувача від моделі, відповідає за її керування, виклик інструментів і перевірку результатів, перетворюючи AI з інструменту, що потребує постійного людського втручання, у систему, здатну виконувати завдання самостійно. Це підвищує надійність і розширює застосування AI.

З цієї парадигми автор робить висновок, що зростання попиту на AI вже не залежить від кількості користувачів, а більше — від здатності кожного користувача ефективно керувати системою; одночасно, агентські навантаження мають «переможця-беруть все» характер, що підвищує попит на високопродуктивні обчислювальні ресурси і створює структурні можливості для виробників чипів і хмарних сервісів.

У цьому контексті масштабні капітальні витрати вже не є спекулятивними ставками на майбутнє, а швидше — відображенням реальних потреб. Оскільки AI переходить від «допоміжного інструменту» до «інфраструктури виконання», його економічний вплив, можливо, тільки починає проявлятися.

Нижче наведено оригінал:

Раніше я більше схилявся до другого варіанту, навіть вважав, що бульбашка на деяких етапах не обов’язково погана.

Але зараз, на порозі 2026 року, під час відкриття Nvidia GTC, моя думка змінилася: це не обов’язково бульбашка. (Іронічно, але саме це твердження може бути ознакою бульбашки.)

Три ключові стрибки у розвитку LLM

Останні кілька тижнів, обговорюючи фінансові звіти Nvidia і Oracle, я неодноразово згадував, що LLM пройшли три важливі етапи.

Перший: ChatGPT

Перший переломний момент — це випуск ChatGPT у листопаді 2022 року, і тут вже не потрібно багато пояснень. Хоча моделі на базі трансформерів з’явилися ще у 2017 році і постійно удосконалювалися, їх довго недооцінювали. Навіть у жовтні 2022 року я в інтерв’ю для Stratechery вважав цю технологію вражаючою, але без продуктового застосування і мотивації для стартапів.

Проте кілька тижнів потому все кардинально змінилося. ChatGPT вперше показав світу справжні можливості LLM.

Однак ранні версії залишили дві глибокі враження, які «бульбашкові» критики повторювали багато разів:

Перше — модель часто помиляється, іноді «галюцинуючи» відповіді, коли не знає відповіді. Це робить її більше схожою на «технічний трюк», вражаючу, але ненадійною.

Друге — навіть при цьому вона дуже корисна, але за умови, що користувач знає, як її використовувати, і постійно перевіряє результати, виправляє помилки.

Другий: o1

Другий важливий етап — це випуск OpenAI моделі o1 у вересні 2024 року. Тоді LLM вже значно покращилися завдяки більш потужним базовим моделям і новим методам тренування, що забезпечували точніші відповіді і менше галюцинацій.

Але головна новина o1 — це здатність моделі «спершу думати», а потім відповідати.

Традиційні LLM — це моделі з автогересивною залежністю, і якщо під час логічного висновку вони зроблять помилку, то вся ланцюг буде зіпсована. Це — слабкість «автогересивних моделей». А моделі з логічним мисленням здатні оцінювати свої відповіді, генеруючи їх спершу, а потім перевіряючи і, за потреби, шукаючи інші шляхи.

Це означає, що модель починає самостійно керувати помилками, зменшуючи навантаження на користувача. Результат — дуже помітний. Якщо говорити про перший стрибок — ChatGPT зробив AI доступним, то другий — o1 зробив його надійним.

Третій: Agent (Opus 4.5 / Codex)

Наприкінці 2025 року відбувся третій стрибок.

У листопаді 2025 року Anthropic випустила Opus 4.5, спочатку з низьким резонансом. Але вже в грудні модель Claude Code, побудована на цій платформі, продемонструвала неймовірні можливості; майже одночасно OpenAI випустила GPT-5.2-Codex, і вона показала схожі результати.

Люди давно говорили про «агентів», але саме тоді вони почали справді виконувати складні завдання, навіть ті, що тривали кілька годин, і робили це правильно.

Ключовий момент — не у моделі, а у контрольному рівні (harness), тобто у програмному забезпеченні, яке керує моделлю, викликає інструменти і виконує процеси. Іншими словами, користувач більше не безпосередньо працює з моделлю, а ставить цілі, а агент керує моделлю, викликає інструменти, виконує процеси і перевіряє результати.

Наприклад, у програмуванні:

· перший етап: модель генерує код

· другий: модель виконує логіку під час генерації

· третій: агент генерує код → тестує → автоматично запускає тест → якщо помилка — повторює, користувач не втручається.

Це означає, що основна проблема епохи ChatGPT — низька точність і слабка логіка — системно вирішуються, з’являються більш висока точність, кращі логічні можливості і автоматична перевірка.

Залишився лише одне питання: навіщо це використовувати?

Я багато разів підкреслював ці три стрибки, щоб пояснити, чому весь індустріальний сектор зараз потребує багато обчислювальних ресурсів і чому масштабні капітальні витрати цілком виправдані.

Три парадигми мають різні вимоги до обчислювальної потужності:

· перша — тренування вимагає багато ресурсів, але під час логіки — менше

· друга — витрати на логіку зростають у рази (більше токенів і частіше використання)

· третя (агент) — багаторазове викликання моделей, сам агент теж споживає ресурси (часто — CPU), і частота використання зростає.

Але найважливіше — це зміна структури попиту, яку недооцінювали.

Зараз кількість користувачів чат-ботів значно перевищує кількість тих, хто використовує агентів, і багато хто просто не використовує AI по максимуму. Причина — активне використання AI вимагає «ініціативності». LLM — це інструмент без цілей і волі, його потрібно викликати свідомо.

Але агент змінює цю ситуацію: він знижує вимоги до людської ініціативності. У майбутньому один користувач зможе керувати кількома агентами одночасно.

Це означає, що навіть за наявності невеликої кількості «ініціативних» людей, можна буде створити величезний попит на обчислювальні ресурси і економічний ефект.

AI все ще потребує «людей для керування», але вже не так багато.

Готовність споживачів платити за AI поступово зменшується. Це стає очевидним. Реальні покупці — це бізнеси.

Бізнеси найбільше цінують не просто підвищення ефективності AI, а здатність AI замінювати людські ресурси і робити це більш ефективно.

Зараз у великих компаніях зазвичай рух вперед забезпечують кілька людей, але організація дуже велика і має високі витрати на координацію. Агент дозволяє посилити вплив «людей, що створюють цінність», і одночасно зменшити організаційні бар’єри.

Результат — «менше людей → більше результату → нижчі витрати». Саме тому майбутні звільнення швидше за все будуть не просто «циклічними», а структурними.

Компанії почнуть переосмислювати не лише питання «чи потрібно було наймати багато людей під час пандемії», а й — «чи нам взагалі потрібні так багато людей у епоху AI?»

Чому це не бульбашка?

З цієї точки зору, логіка «це не бульбашка» стає більш очевидною:

  1. Ядро недосконалості LLM постійно усувається за допомогою обчислювальних ресурсів і архітектурних інновацій

  2. Вхідний поріг для зростання попиту знижується

  3. Переваги агентів — це не лише зниження витрат, а й збільшення доходів

Тому не дивно, що всі хмарні провайдери говорять про нестачу обчислювальних ресурсів і постійно збільшують капітальні витрати.

Агент і перебудова ланцюга доданої вартості

Ще одне важливе питання — якщо моделі стануть товаром, чи зможуть OpenAI і Anthropic ще заробляти?

Загальна думка — ні, але агентська модель змінює цю ситуацію. Головне — цінність полягає не лише у моделі, а у «інтеграції моделі + системи управління».

Прибутки зазвичай концентруються у «інтеграційному шарі», а не у окремих модулях. Як у Apple: їх апаратне забезпечення не є масовим товаром, бо глибоко інтегроване з програмним забезпеченням. Аналогічно, агенту потрібна глибока інтеграція моделі і системи управління, що робить OpenAI і Anthropic ключовими гравцями у ланцюгу доданої вартості, а не просто замінними компонентами.

Зміна Microsoft — це сигнал: раніше вони наголошували на «замінності моделей», але після запуску справжніх агентських продуктів довелося відмовитися від цього.

Це означає, що моделі не обов’язково стануть масовим товаром, оскільки агент вимагає здатності до інтеграції.

Фінальна парадоксальність

Повертаюся до початкового парадоксу.

Я завжди вважав, що поки люди бояться бульбашки, вона ще не сформована; справжня бульбашка — це коли ніхто вже не сумнівається.

Але тепер моя висновок — це не бульбашка.

Якщо ж «я кажу, що це не бульбашка», і це саме підтверджує її існування, то так і є.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити