Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
New
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Повна промова Nvidia GTC: Хуанг Жень-сюнь оголошує про приходженість ери висновків, омари - це нова операційна система!
Джерело: Wall Street Journal
Автор статті: Бао Ілонг
На конференції GTC 2026 генеральний директор NVIDIA 黃仁勳 визначив компанію як «виробника AI-заводів», заявивши, що «до 2027 року ми побачимо щонайменше 1 трильйон доларів високовпевненого попиту». Він представив концепцію «економіки токен-заводів», підкреслюючи, що продуктивність на ват є ключовим для комерційної реалізації. 黃仁勳 стверджує, що агент (інтелектуальний агент) покладе край традиційній моделі SaaS, і в майбутньому «річна зарплата + бюджет на токени» стане новим стандартом у професійному середовищі.
Вступне слово
Ведучий: Ласкаво просимо до виступу засновника та генерального директора NVIDIA 黃仁勳.
黃仁勳, засновник і генеральний директор:
Ласкаво просимо на GTC. Це технологічна конференція, і дуже приємно бачити таку кількість людей, які вже рано вранці стоять у черзі.
Сьогодні ми обговоримо три основні платформи: платформу CUDA-X, системну платформу та нову платформу AI-заводів. Звичайно, найважливішою є екосистема.
Перш за все, хочу подякувати нашим «передконференційним» ведучим, які виступили чудово: Сара Гуо з Conviction, Альфред Лін з Sequoia Capital (перший венчурний інвестор NVIDIA), а також перший важливий інституційний інвестор NVIDIA Гевін Бейкер. Ці три особи мають глибоке розуміння технологій і широкий вплив у технічній екосистемі. Також дякую всім VIP-гостям, яких я особисто обрав.
Також дякую всім компаніям-учасникам. NVIDIA, як платформа, має технології, платформи та багату екосистему. Сьогодні майже всі компанії, що працюють у трильйонних галузях, зібралися тут — 450 компаній підтримали цю подію, щиро дякую.
Конференція включає 1000 технічних сесій і зібрала 2000 спікерів, які охоплюють кожен рівень «п’ятишарового торта» штучного інтелекту — від землі, електроенергії та інфраструктури до чіпів, платформ, моделей і кінцевих застосувань, що прискорюють розвиток галузі.
20 років CUDA
Цього року виповнюється 20 років з моменту створення CUDA.
За ці 20 років ми постійно працювали над цією архітектурою — революційною винаходом: SIMT (одна команда — багато потоків), що дозволяє перетворювати скалярний код у багатопоточні застосунки, що легше програмувати, ніж традиційні методи. Останнім часом ми додали підтримку Tiles (плитки), що допомагає розробникам зручно програмувати Tensor Core та сучасні математичні структури AI.
До сьогодні CUDA зібрала тисячі інструментів, компіляторів, фреймворків і бібліотек, має сотні тисяч відкритих проектів у відкритій спільноті і глибоко інтегрована у всі основні екосистеми.
Ефект маховика і базова інфраструктура
Наступна діаграма ілюструє загальну стратегію NVIDIA.
Найскладніше і найцінніше — це базова інфраструктура. За 20 років ми створили сотні мільйонів GPU та обчислювальних систем, що працюють на CUDA. Ми охоплюємо кожного провайдера хмарних послуг і кожного виробника комп’ютерів, обслуговуючи майже всі галузі.
Базова інфраструктура CUDA — це основа для ефекту маховика. Величезна кількість інсталяцій приваблює розробників, які створюють нові алгоритми, що призводить до проривів — наприклад, появи глибокого навчання. Ці прориви відкривають нові ринки, до яких приєднуються ще більше партнерів, що збільшує базу інсталяцій. Цей маховик продовжує прискорюватися.
Зараз кількість завантажень бібліотек NVIDIA зростає неймовірними темпами, і цей тренд лише посилюється. Такий маховик дозволяє платформі постійно підтримувати безліч застосунків і технічних проривів.
Ще важливіше, що це забезпечує довгий термін служби інфраструктури. Причина проста: CUDA може працювати з широким спектром застосувань — від життєвого циклу AI до різних платформ обробки даних і наукових розв’язків. Тому, встановивши GPU NVIDIA, ви отримуєте дуже довгий термін експлуатації.
Це також пояснює, чому архітектура Ampere, випущена шість років тому, досі зростає у ціновій політиці в хмарі.
Паралельно, з оновленням програмного забезпечення, знижується вартість обчислень — це проявляється не лише у підвищенні продуктивності при первинному розгортанні, а й у довгостроковій економії завдяки прискоренню обчислень. Оскільки всі GPU архітектурно сумісні, ми прагнемо підтримувати і обслуговувати кожен GPU у світі. Чим більша база інсталяцій, тим більше користувачів отримують вигоду від нових оптимізацій.
Ця динаміка дозволяє архітектурі NVIDIA розширювати охоплення, прискорювати зростання і одночасно знижувати вартість обчислень, що сприяє новому витку розвитку.
Початок CUDA: GeForce
Шлях CUDA фактично почався 25 років тому з GeForce.
GeForce — найуспішніший маркетинговий хід NVIDIA. Ми почали залучати майбутніх клієнтів ще тоді, коли вони були малими і ще не мали купівельної спроможності — їхні батьки купували для них, рік за роком, доки вони не виросли і не стали справжніми фахівцями у галузі комп’ютерних наук.
25 років тому ми винайшли програмовані шейдери — перший у світі програмований прискорювач, що став початком пиксельних шейдерів. Це відкриття спонукало нас до подальших досліджень, і через 5 років з’явився CUDA.
Розповсюдження CUDA з GeForce на кожен комп’ютер — один із наших найважливіших інвестицій. Навіть якщо тоді це було важко фінансово, воно коштувало майже всієї прибутковості компанії. Ми вірили у його потенціал, і, попри труднощі на початку, за 20 років і 13 поколінь архітектур CUDA стала всюди.
Близько 8 років тому ми випустили RTX, що повністю переосмислило архітектуру, додавши два нові підходи: апаратне трасування променів і графіку на основі AI. Як і GeForce, що приніс AI у світ — дозволивши Алекс Крізевський, Іллію Сутскеву, Джеффрі Хінтону, Ендрю Нгу та іншим виявити, що GPU — це потужний інструмент для прискорення глибокого навчання, — це запалило вибух AI. Тепер AI повністю змінює і комп’ютерну графіку.
Нейронне рендеринг: DLSS 5
Сьогодні я хочу показати вам майбутнє графічних технологій. Це нейронне рендеринг — поєднання 3D-графіки та штучного інтелекту, яке ми називаємо DLSS 5.
Вражаюче, правда? Ми поєднали керовану 3D-графіку (структуровані дані віртуального світу) з генеративним AI (ймовірнісні обчислення): один — передбачуваний, інший — ймовірнісний, але дуже реалістичний. В їхньому поєднанні створюваний контент є і красивим, і реалістичним, і цілком керованим.
Злиття структурованих даних і генеративного AI повторюватиметься у різних галузях. Структуровані дані — основа довіри до AI.
Платформи структурованих і неструктурованих даних
Наступна діаграма може вас здивувати, але прошу вислухати до кінця.
Структуровані дані — SQL, Spark, Pandas, Velox, а також платформи Snowflake, Databricks, Amazon EMR, Azure Fabric, Google BigQuery — всі працюють із Data Frame. Ці Data Frame — величезні електронні таблиці, що містять усю бізнес-інформацію і є «базовими фактами» підприємств.
У епоху AI ці структуровані дані будуть швидко викликані AI, тому їх потрібно максимально прискорити. Майбутні AI-агенти широко використовуватимуть структуровані бази даних.
Неструктуровані дані — це більша частина інформації у світі: вектори баз даних, PDF, відео, голос… Щороку у світі створюється близько 90% неструктурованих даних. Раніше ці дані майже не мали цінності — їх зберігали у файлових системах, але не могли шукати або аналізувати.
Зараз AI змінює цю ситуацію. Як і у випадку з мультимодальним сприйняттям і розумінням, ці технології можуть читати PDF, розуміти їхній зміст і вбудовувати їх у пошукові та аналітичні системи.
Для цього NVIDIA створила два базові бібліотеки:
cuDF — для прискорення роботи з Data Frame і структурованими даними
cuVS — для прискорення зберігання векторів, семантичних даних і неструктурованих AI-даних
Ці платформи стануть одними з найважливіших у майбутніх обчислювальних системах.
Сьогодні ми офіційно оголосили про кілька співпраць:
IBM (засновник SQL) використовує cuDF для прискорення платформи WatsonX Data
Dell співпрацює з нами для створення Dell AI Data Platform, інтегруючи cuDF і cuVS, спеціально для епохи AI
Google Cloud: ми прискорюємо їхні платформи Vertex AI і BigQuery; на прикладі Snapchat допомогли знизити обчислювальні витрати майже на 80%
AWS: прискорюємо EMR, SageMaker і Bedrock, а також плануємо інтегрувати OpenAI у AWS для масштабного використання хмарних обчислень
Microsoft Azure: прискорюємо Azure AI Foundry, підтримуємо Bing Search і розширюємо розгортання Azure у регіонах
CoreWeave: перша у світі AI-орієнтована хмара для GPU-хостингу та AI-інференсу
Oracle: наш перший клієнт серед великих корпорацій
Palantir + Dell: трьохстороння співпраця для локалізованого розгортання AI-платформ у будь-якій країні та регіоні
Ключова стратегія NVIDIA: вертикальна інтеграція і горизонтальна відкритість
NVIDIA — перша у світі компанія, що поєднує вертикальну інтеграцію та горизонтальну відкритість у сфері обчислень.
Прискорювальні обчислення — це не лише питання чіпів або систем, а головне — застосунків. Щоб постійно забезпечувати значне прискорення і зниження витрат у кожній галузі, потрібно глибоко розуміти застосунки, галузі та алгоритми, і впроваджувати їх у кожному сценарії — у дата-центрах, локально, на краю мережі або у робототехніці.
Саме тому NVIDIA зосереджена на глибокій роботі у кожній вертикалі. Ми інтегруємо алгоритми у платформи і відкриваємо їх для всього світу.
Цьогорічна GTC охоплює майже всі вертикальні сфери екосистеми NVIDIA, зокрема:
Автономне водіння
Фінансові послуги (найбільша галузь конференції, де переважають розробники, а не трейдери)
Медицина і охорона здоров’я (зараз у період «ChatGPT»)
Промислове виробництво
Розваги і ігри
Робототехніка (110 роботів на виставці, майже всі робототехнічні компанії співпрацюють з NVIDIA)
Телекомунікації (близько 2 трильйонів доларів, базові станції перетворюються на інфраструктуру AI-краю)
На цій конференції ми оголосили про 100 оновлень бібліотек і близько 40 моделей. Ці бібліотеки — основні активи компанії, ключові для активізації обчислювальної платформи і вирішення практичних задач.
Одним із найважливіших є бібліотека cuDNN (CUDA Deep Neural Network Library), яка революціонізувала AI і спричинила сучасний бум штучного інтелекту.
Наступає точка перелому в інференсі
Що сталося за останні два роки? Три ключові події, що все змінили:
Перше: запуск ChatGPT і епоха генеративного AI (кінець 2022 — 2023). AI навчився не лише сприймати і розуміти, а й перекладати, створювати новий контент. Генеративні обчислення кардинально змінили архітектуру і логіку побудови комп’ютерів.
Друге: зростання ролі інференційного AI (моделі o 1 і o 3). Інференційний AI дозволяє моделям рефлексувати, планувати, розбивати складні задачі на послідовні кроки, що робить AI більш надійним і базованим на фактах. Це сприяло стрімкому зростанню популярності ChatGPT і значно збільшило обсяг обчислень для вхідних і вихідних токенів.
Третє: появи Claude Code і Agentic AI. Це перша справжня модель агентного типу, здатна читати файли, писати код, компілювати, тестувати, оцінювати і ітеративно покращуватися. Claude Code революціонізував розробку програмного забезпечення. Зараз у NVIDIA кожен інженер використовує AI-агента для допомоги у програмуванні.
AI пройшов шлях від «сприйняття» до «генерації», від «генерації» до «інференсу», і тепер — до «виконання» — і здатен виконувати справді продуктивну роботу.
Точка перелому в інференсі вже настала. Кожне мислення, дія, читання і виведення в AI вимагає інференсу, і потреба у токенах стрімко зростає. За останні два роки обчислювальні вимоги для однієї задачі зросли приблизно у 10 000 разів, а обсяг використання — у 100 разів, що дає сумарний приріст майже у 1 000 000 разів.
Від 500 мільярдів до 1 трильйона доларів
Минулого року на GTC я зазначив, що очікуємо високовпевненого попиту на приблизно 500 мільярдів доларів до 2026 року для Blackwell і Rubin.
Сьогодні, через рік після GTC, я можу чітко сказати: щонайменше до 2027 року попит досягне 1 трильйона доларів.
Більше того, я впевнений, що реальні потреби у обчисленнях будуть значно вищими.
Минулого року NVIDIA зробила ставку на інференс. Ми доклали максимум зусиль, щоб забезпечити високі показники на всіх етапах AI — від тренування до пост-тренінгу, щоб інфраструктурні інвестиції довгостроково зберігали цінність.
Ми раді, що Anthropic обрала NVIDIA, а Meta SL — теж. Зараз відкриті моделі наближаються до передової і стають всюдисущими. NVIDIA — єдина у світі платформа, що охоплює всі сфери AI: мови, біологію, комп’ютерну графіку, комп’ютерне зір, голос, білки і хімію, робототехніку — і працює з усіма моделями, від краю до хмари.
Наша архітектура «фунгібельності» (можливості перенесення) робить її найвигіднішою і найнадійнішою платформою для створення AI-інфраструктури. Вкладення у трильйони доларів у цю інфраструктуру вимагає абсолютної впевненості — NVIDIA є єдиною платформою, що дозволяє вам з упевненістю розгортати її у будь-якій країні або регіоні.
Зараз понад 60% нашого бізнесу — це п’ять найбільших хмарних провайдерів, решта — регіональні хмари, суверенні хмари, підприємства, промисловість, робототехніка, крайові системи і суперкомп’ютери. Така диверсифікація забезпечує стійкість — AI вже не є просто застосунком, а справжньою революцією у платформних обчисленнях.
Прорив у продуктивності інференсу
Ми досягли фундаментального прориву у оптимізації інференсу:
Це найповніший у світі тест продуктивності AI-інференсу (з Semi Analysis). Ось основні показники:
Вертикальна вісь (на ват токенів): відображає пропускну здатність. Кожен дата-центр обмежений електроенергією: 1 ГВт — не може стати 2 ГВт, тому потрібно максимально ефективно використовувати кожен ват.
Горизонтальна вісь (швидкість інференсу / швидкість токенів): відображає інтерактивність і «розумність» AI. Чим швидше, тим більша модель, довший контекст і глибше мислення — тим «розумніше».
Результати вражають:
Від Hopper H 200 до Grace Blackwell — очікуваний приріст за законом Мура близько 1,5 разу, але фактичний — 35-кратний на ват. Dylan Patel з Semi Analysis навіть зазначив, що мої дані є консервативними — насправді це 50-кратний приріст.
Це означає, що вартість одного токена NVIDIA — найнижча у світі. Вартість побудови дата-центру на 1 ГВт — близько 40 мільйонів доларів (амортизація 15 років). Це фіксовані витрати, і для їх окупності потрібно встановлювати найефективніше обладнання — і зараз NVIDIA у цьому безперечний лідер.
Візьмемо Fireworks AI: після оновлення їхнього софту швидкість обробки токенів зросла з 700 до майже 5000 токенів/сек — у 7 разів. Це демонстрація сили максимальної синергії.
Бізнес-логіка токен-заводів:
Майбутні хмарні провайдери та AI-компанії будуть оцінювати свої послуги з точки зору токен-заводів. Різні швидкості токенів — різні рівні сервісу і ціни:
Безкоштовний рівень: висока пропускна здатність, низька швидкість
Базовий рівень: близько 3 доларів за мільйон токенів
Стандартний рівень: близько 6 доларів за мільйон токенів
Преміум: близько 45 доларів за мільйон токенів
Елітний: близько 150 доларів за мільйон токенів (висока швидкість, довгий контекст, найбільша модель)
На прикладі Grace Blackwell: у порівнянні з Hopper, у найвигіднішому сервісному рівні пропускна здатність зросла у 35 разів, що суттєво збільшує потенційний дохід і підвищує загальний прибуток дата-центру приблизно у 5 разів.
Vera Rubin: нова архітектура
Зараз я вже не показую окремий чіп — я демонструю цілі системи. Це Vera Rubin.
Vera Rubin створена спеціально для агентних систем, і її основна логіка дуже проста:
Великі мовні моделі стають дедалі більшими, потрібно генерувати більше токенів і швидше мислити;
AI-агенти часто звертаються до пам’яті (KV Cache), структурованих даних (cuDF) і неструктурованих даних (cuVS);
Системи зберігання зазнають великих навантажень;
Інструменти виклику вимагають високої однониткової продуктивності CPU.
Для цього ми створили новий Vera CPU — єдиний у світі дата-центровий процесор з LPDDR 5, що поєднує високу однониткову продуктивність, чудову обробку даних і неймовірну енергоефективність.
Основні характеристики системи Vera Rubin:
100% рідинне охолодження, значне спрощення кабельної системи
Час монтажу зменшено з двох днів до двох годин
Охолодження гарячою водою при 45°C — значне зниження енергоспоживання систем охолодження
Встановлено шосте покоління NVLink (єдине у світі) — повністю рідинне охолодження, що важко реалізувати, — команда пишається цим досягненням
Перший у світі комутатор CPO Spectrum-X (оптичне пакування) — масове виробництво: фотоні безпосередньо інтегровані у чіп, електричний сигнал перетворюється у фотон і безпосередньо з’єднується з чіпом. Технологія розроблена у співпраці з TSMC, і ми є єдиним виробником у світі, називаємо її “CoOP”, що є революційним проривом.
Різні серії CPU вже у масовому виробництві і стануть багатомільярдним бізнесом.
Rubin Ultra (суперверсія):
Rubin Ultra використовує нову раму “Kyber”, що підтримує 144 GPU у єдиній NVLink-області. Обчислювальний вузол вставляється з переднього боку, NVLink-комутатор з’єднується ззаду через проміжну плату, утворюючи гігантський обчислювальний комплекс.
Щодо дорожньої карти:
Blackwell (зараз): система Oberon, підтримка NVLink 72
Vera Rubin: рама Kyber (NVLink 144) + розширення Copper NVLink/оптика до NVLink 576
Vera Rubin Ultra: чіп Rubin Ultra + LP 35 (з впровадженням нової архітектури NVFP 4)
Feynman (наступне покоління): новий GPU + LP 40 + CPU Rosa (Rosen) + Bluefield 5 + CX 10 + розширення через кабелі і CPO у двох режимах
Grok і прориви у гібридній обробці
Ми придбали команду Grok і отримали ліцензію на технології для глибокої інтеграції.
Основні характеристики процесорів Grok:
Детермінований оброблювач потоків даних, статичне компілювання, планування через компілятор
Обчислення і дані одночасно надходять, повністю програмно керовані, без динамічного планування
Містить величезний SRAM, спеціально розроблений для інференсу — єдиного навантаження.
Обмеження: один Grok-чіп має лише 500 МБ пам’яті (у порівнянні з 288 ГБ у Rubin), що ускладнює масштабування великих моделей і KV Cache — до появи нашої ідеї.
Dynamo: роз’єднаний фреймворк для інференсу
Ми створили Dynamo — програмне забезпечення, що переробляє процес інференсу:
Префілінг (Prefill): виконується на Vera Rubin (потребує багато обчислень)
Обчислення уваги (Attention) у декодері: на Vera Rubin (потребує багато обчислень)
Генерація токенів і передача через мережу (FFN): на Grok (потребує високої пропускної здатності і низької затримки)
Обидва процесори — один для високої пропускної здатності, інший — для низької затримки — тісно пов’язані через Dynamo, що зменшує затримку приблизно у 50%.
Результат: у найвигіднішому сервісному рівні продуктивність зросла у 35 разів, відкривши новий рівень інференсу.
Grok LP 30 — виробляється Samsung, починає поставки у третьому кварталі 2026 року.
Стратегія розгортання Grok:
Якщо навантаження переважно високопродуктивне: 100% Vera Rubin
Якщо потрібно багато високоякісного коду або швидкого токену: рекомендується 25% ресурсів для Grok, решту — для Vera Rubin.
Масштаб і перспективи AI-заводів
У трильйонному заводі за два роки завдяки цим архітектурам швидкість генерації токенів зросла з 22 мільйонів до 700 мільйонів — у 350 разів.
Це демонстрація сили максимальної синергії — вертикальної інтеграції і горизонтальної відкритості, що дозволяє всім ділитися цим досягненням.
Зі зростанням масштабів AI-заводів виникає ключова проблема: різні постачальники технологій у дата-центрах раніше не співпрацювали, що спричиняло значні енергетичні втрати.
Для цього NVIDIA створила платформу NVIDIA DSX, базовану на Omniverse, що дозволяє всім партнерам спільно проектувати трильйонний AI-завод у віртуальній реальності — з повною симуляцією механіки, теплового менеджменту, електрики і мережі, і з’єднанням з мережею електропостачання для динамічної оптимізації споживання енергії і охолодження за допомогою Max-Q.
Ми віримо, що ця платформа подвоїть ефективність — у масштабі трильйонів доларів це дуже цінно.
Крім того, NVIDIA виходить у космос: чип Thor пройшов радіаційну сертифікацію і вже встановлений на супутниках. Ми співпрацюємо з партнерами над Vera Rubin Space-1 — створенням дата-центру у космосі (з вирішенням інженерних задач радіаційного охолодження).
OpenClaw: операційна система для AI-агентів
Зараз я хочу поділитися новим відкриттям.
Peter Steinberger створив програму під назвою OpenClaw. Це один із найпопулярніших відкритих проектів у світі, і за кілька тижнів він обігнав поширення Linux за тридцять років.
Що таке OpenClaw? Це агентна операційна система, яка може:
Підключатися до великих мовних моделей
Доступатися до інструментів і файлових систем
Виконувати планування і запускати задачі
Розбивати проблему на підзадачі і виконувати їх поетапно
Генерувати і викликати під-агенти
Підтримувати мультимодальну взаємодію (текст, голос, жест і т. д.)
Інакше кажучи, OpenClaw — це операційна система для агентних обчислень. Як Windows зробила персональні комп’ютери можливими, так і OpenClaw робить можливим персонального агента.
Ключове питання для кожної компанії: яка ваша стратегія щодо OpenClaw?
Як і раніше, кожна компанія має розробити свою стратегію щодо Linux, HTTP/HTML, Kubernetes, і тепер — щодо OpenClaw і агентних систем.
Зміна парадигми корпоративних IT:
Стара модель: дата-центр зберігає файли → програмні інструменти → люди використовують інструменти
Нова модель: кожна SaaS-компанія стане AaaS (Agentic as a Service), пропонуючи спеціалізовані агентські послуги.
Однак внутрішні агентні системи мають серйозні безпекові виклики: вони можуть отримувати доступ до конфіденційної інформації, виконувати код і спілкуватися з зовнішнім світом. Тому ми співпрацювали з Peter Steinberger і провели спільну розробку для створення безпечної корпоративної версії OpenClaw — на базі технології OpenShell, з політиками безпеки, мережевими бар’єрами і приватними маршрутизаторами, що отримали назву NemoClaw, і вже доступні для завантаження.
План відкритих моделей NVIDIA
NVIDIA вже закріпила лідерство у кожній галузі AI з передовими моделями:
Сьогодні ми офіційно оголосили про створення альянсу Nemotron і співпрацю з компаніями для розробки Nemotron 4:
BlackForest Labs (генерація зображень)
Cursor (редагування коду)
LangChain (фреймворк для створення кастомних агентів, мільярди завантажень)
Mistral (відкриті великі моделі)
Perplexity (AI-пошук)
Reflection (мультимодальні агентні системи)
Sarvam (індійська AI-компанія)
Thinking Machines (лабораторія, заснована Мірою Мураті)
Ці компанії співпрацюють з нами, щоб глибоко інтегрувати дизайн Nemotron, інструментарій агентного AI NVIDIA і весь спектр відкритих моделей у свої продукти і сервіси.
Фізичний AI і робототехніка
Крім цифрових агентів, ми довго працюємо у сферах фізичного AI і робототехніки.
Ми створили три ключові обчислювальні системи для робототехніки:
Тренувальні системи
Системи для генерації синтетичних даних і симуляції
Обчислювальні системи для робототехнічних платформ
Ми тісно співпрацюємо з Siemens, Cadence та іншими партнерами і оголосили про кілька важливих проектів:
Автономне водіння: «ChatGPT» для роботів уже тут. Ми оголосили про співпрацю з BYD, Hyundai, Nissan і Geely, які щороку виробляють 18 мільйонів автомобілів і підключаються до платформи RoboTaxi NVIDIA. Також ми уклали партнерство з Uber для розгортання RoboTaxi у кількох містах.
Промислові роботи: співпраця з ABB, Universal Robots, KUKA і Caterpillar для інтеграції фізичного AI і симуляційних систем у глобальні виробничі лінії.
Телеком: T-Mobile — майбутнє бездротових базових станцій, що перетворюються на інфраструктуру AI-краю, здатну динамічно аналізувати трафік і адаптувати спрямованість антен, підвищуючи якість сигналу і знижуючи енергоспоживання.
Ми також показали робота «Олаф», створеного у співпраці з Disney — на базі платформи Jetson, з тренувальним середовищем Omniverse і фізичним рушієм Newton, розробленим у співпраці з Disney і DeepMind, що демонструє адаптивний рух у реальному світі — це яскравий приклад фізичного AI і майбутнього тематичних парків.
Підсумки
На цій GTC ми зосередилися на чотирьох ключових темах:
Бажаю всім успіху на GTC, дякую!