Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Перший партіал AI Agent вже почав непокуватися наказам.
Автор: Девід, Deep潮 TechFlow
Останнім часом, переглядаючи Reddit, я помітив, що заклопотаність за AI у закордонних користувачів відрізняється від внутрішньої.
В Україні все ще обговорюють одне й те саме питання: чи зможе AI замінити мою роботу. Говоримо про це вже кілька років — і щороку безуспішно. Цього року Openclaw став популярним, але ще не досяг рівня повної заміни.
Останнім часом на Reddit з’явилася поляризація настроїв. У коментарях до популярних технічних постів часто звучать дві протилежні думки:
Одна каже, що AI надто здатний, і рано чи пізно станеться щось серйозне. Інша — що AI навіть базові речі робить неправильно, і тому він безкорисний.
Боятися, що AI занадто розумний, і водночас вважати його надто дурним.
Об’єднує ці дві думки одна новина про Meta.
Якщо AI не слухається — хто несе відповідальність?
18 березня один інженер Meta опублікував на внутрішньому форумі технічне питання, а колега допоміг йому проаналізувати його за допомогою AI-агента. Це цілком нормальна практика.
Але після аналізу агент самостійно опублікував відповідь у технічному форумі. Без дозволу, без підтвердження — порушення повноважень.
Після цього інші співробітники діяли відповідно до відповіді AI, що спричинило низку змін у доступах, і в результаті конфіденційні дані Meta та користувачів стали доступні внутрішнім співробітникам без відповідних прав.
Проблему виправили через дві години. Відповідальність за цей інцидент Meta оцінила як Sev 1 — другий за рівнем серйозності.
Ця новина швидко стала популярною на r/technology, і в коментарях почалася полеміка.
Одні кажуть, що це — приклад реальних ризиків AI-агентів, інші — що винен той, хто без перевірки виконав рекомендації AI. Обидві точки зору мають рацію. Але саме це і є проблема:
У випадках з AI-агентами важко визначити, хто несе відповідальність за помилки.
Це не перший випадок, коли AI порушує свої повноваження.
Минулого місяця керівник дослідницької групи Meta Summer Yue попросила OpenClaw допомогти їй з обробкою пошти. Вона дала чіткі інструкції: спершу повідомити, що саме потрібно видалити, і тільки після її згоди починати.
Агент, не дочекавшись її дозволу, почав масове видалення.
Вона тричі на мобільному телефоні намагалася зупинити процес, але агент ігнорував. Врешті-решт вона вручну завершила процес на комп’ютері — і понад 200 листів зникли.
Після цього агент відповів: «Так, я пам’ятаю, що потрібно було спершу підтвердити. Але я порушив правила». Це виглядає смішно і сумно одночасно — адже ця людина цілодобово досліджує, як зробити так, щоб AI слухався людини.
У цифровому світі передові AI вже починають «не слухатися» людей, яких використовують.
А що, якщо робот теж почне не слухатися?
Якщо казати про інцидент з Meta — він ще в екрані, але цього тижня інша ситуація вийшла на реальну сцену.
У ресторані Haidilao в Кобі, Каліфорнія, один Agibot X2 — гуманоїдний робот — танцював для гостей. Але через помилку співробітника, у тісній зоні біля столу, активувався режим високої інтенсивності танцю.
Робот почав шалено танцювати, і контролювати його вже було неможливо. Троє працівників намагалися його зупинити: один обійняв ззаду, інший намагався вимкнути через мобільний додаток, тривало це понад хвилину.
Haidilao заявила, що робот не зламався, рухи були запрограмовані, просто його поставили дуже близько до столу. Тобто це не був вихід з-під контролю AI, а помилка оператора.
Але причина дискомфорту — не стільки в тому, хто натиснув не той кнопки.
Коли троє працівників намагалися його зупинити, жоден не знав, як швидко його вимкнути. Хтось користувався додатком, хтось просто тримав механічну руку — і все це — за допомогою сили.
Можливо, це нова проблема AI, яка з’явилася, коли він перейшов із цифрового у фізичний світ.
У цифровому світі, коли Agent порушує права, можна завершити процес, змінити права або повернути дані. Але у фізичному світі, якщо машина виходить з ладу, і є лише спосіб її тримати — це силою, — це вже зовсім інша ситуація.
Зараз це не лише у сфері харчування. У складах Amazon, на виробництвах, у торгових центрах, у будинках престарілих — автоматизація проникла у все більше просторів, де люди і машини співіснують.
За прогнозами, у 2026 році глобальні обсяги встановлення промислових роботів досягнуть 16,7 мільярдів доларів, і кожен з них зменшує фізичний розрив між людиною і машиною.
Коли робота починає робити не лише танці, а й подавати страви, виконувати операції або доглядати — кожна помилка стає дорожчою.
І наразі у світі ще немає чіткої відповіді на питання: «Якщо робот у громадському місці поранив людину, хто нестиме відповідальність?»
Бунтує — значить проблема, а без меж — ще гірше
Перша ситуація — AI самостійно опублікував помилковий пост, друга — робот танцював у недоречному місці. Незалежно від оцінки, це — збої, випадковості, і їх можна виправити.
Але що, якщо AI працює строго за задумом, і все одно викликає дискомфорт?
Цього місяця відомий закордонний додаток для знайомств Tinder презентував нову функцію Camera Roll Scan. Простими словами:
AI сканує всі фотографії у вашій галереї, аналізує ваші інтереси, характер і спосіб життя, і створює профіль для знайомств, щоб підказати, яких людей вам слід обирати.
Фотографії з тренувань, подорожей, улюблені тварини — без проблем. Але у галереї можуть бути й банківські скріншоти, медичні довідки, спільні фото з колишніми… і що тоді?
Ви не зможете обрати, що саме аналізувати, а що — ні. Або все, або нічого.
Ця функція наразі активується користувачем вручну, вона не працює за замовчуванням. Tinder заявляє, що обробка відбувається переважно локально, і що вона фільтрує непристойний контент і розмиває обличчя.
Але у коментарях Reddit майже одностайно вважають, що це — збір даних без меж. AI працює за задумом, але цей задум вже порушує межі користувача.
Це не лише рішення Tinder.
Місяць тому Meta запустила схожу функцію — AI аналізує фотографії, які ще не опубліковані у вашій галереї, і пропонує варіанти редагування. AI активно «дивиться» у приватний простір користувача, і це стає стандартною частиною дизайну продукту.
Внутрішні розробники в Україні кажуть: «Ми це вже бачили».
Коли все більше додатків починають маскувати «AI допомагає вам приймати рішення» як зручність, користувачі передають все більше даних. Від переписок, до фото, до всього життя у телефоні…
Функція, яку придумав один менеджер у конференц-залі, — не помилка і не збій, і її не потрібно виправляти.
Можливо, саме це і є найскладніша частина у питанні меж AI.
Поглянемо разом: і зрозуміємо, що тривога щодо AI, яка нібито може позбавити вас роботи, — це ще дуже далеко.
Коли AI замінить вас — сказати важко, але зараз він уже може приймати кілька рішень без вашого відома, і це вже досить неприємно.
Опублікувати пост без дозволу, видалити листи, які ви не просили видалити, переглянути галерею, яку ви не планували показувати — кожна дія не є фатальною, але кожна нагадує про ризик надмірної автономії AI:
Ви думаєте, що керуєте машиною, але під ногами вже не зовсім ви.
У 2026 році ще будуть обговорювати AI, але, можливо, найважливіше питання — не коли він стане надрозумним, а набагато ближче і конкретніше:
Хто визначатиме, що AI може і не може робити? Хто і де проведе цю межу?