Брокери впроваджують OpenClaw, що викликає занепокоєння! Чи потрібна Тайваню інструкція з безпеки утримання омарів? Фінансова комісія відповіла

区块客

Автор: Ariel, Крипто Місто

AI-агент OpenClaw з логотипом у вигляді омара став глобальним хітом, уряд Китаю вже випустив «Посібник з безпеки вирощування омарів» для попередження про відповідні ризики. Народний депутат Лай Шибао зауважив, що вже деякі внутрішні брокери та аналітики ринку поступово впроваджують OpenClaw, і виникає питання: хто нестиме відповідальність у разі помилки при розміщенні замовлення AI-агентом? Він закликав фінансову комісію розробити спеціальний посібник з безпеки для фінансових компаній щодо вирощування омарів.
Пен Цзінлун з Фінансової комісії відповів депутатам, що сам не використовує OpenClaw, але спостерігає за цим явищем, яке досить поширене. Внутрішні підрозділи комісії вже досліджують можливі заходи та вивчають ситуацію з використанням у фінансових установах.
Пен Цзінлун зазначив, що раніше Фінансова комісія вже опублікувала «Керівництво щодо застосування AI у фінансовій галузі», і що фінансові установи вже мають певні механізми безпеки та внутрішнього контролю для нових технологій; якщо такі інструменти вплинуть на безпеку бізнесу, їх розглянуть і розроблять відповідні посібники з безпеки.

Шість ключових пунктів керівництва щодо застосування AI у фінансовій галузі

  • Створення системи управління та відповідальності: фінансові установи повинні нести відповідальність за AI-системи, призначити керівників для контролю та створити відповідну структуру, впроваджувати управління ризиками та навчання персоналу.
  • Значення справедливості та людського підходу: слід уникати упередженості алгоритмів, що може спричинити несправедливість, відповідно до принципу людського центру; генеративний AI має контролюватися людьми для об’єктивної оцінки ризиків.
  • Захист приватності та прав клієнтів: потрібно захищати приватність і належним чином керувати даними клієнтів; при наданні послуг за допомогою AI слід поважати вибір клієнтів і попереджати про альтернативні варіанти.
  • Забезпечення стабільності та безпеки систем: AI-системи мають бути надійними та безпечними, щоб уникнути шкоди; при використанні сторонніх AI-систем необхідно застосовувати відповідне управління ризиками та контроль.
  • Прозорість та пояснюваність: AI має працювати прозоро та з можливістю пояснення; при безпосередньому спілкуванні з споживачами слід активно розкривати інформацію.
  • Сприяння сталому розвитку: застосування AI має відповідати принципам сталого розвитку, зменшувати нерівність і захищати навколишнє середовище; також потрібно навчати співробітників адаптуватися до змін і захищати їхні трудові права.

Джерело зображення: Генерація AI Gemini | Основні пункти керівництва Фінансової комісії щодо застосування AI у фінансовій галузі (схематичне зображення AI)

Мінфін вже відповів на питання безпеки вирощування омарів
Щодо проблем безпеки AI-агентів, міністр відділу цифрових розробок Лін Іцзинґ під час допиту зазначив, що для вирішення питань безпеки та підвищення технологічної автономії Тайвань активно просуває суверенний AI, щоб гарантувати, що моделі AI, що використовуються урядом і критично важливою інфраструктурою, працюють у межах країни та під законодавчим контролем. Він також згадав платформу NemoClaw від Nvidia, яка нещодавно була запущена і спрямована на посилення захисту AI-агентів.
Для створення власних обчислювальних потужностей Тайваню, Мінфін отримав заявку від Foxconn на інвестиції у центр обчислювальних ресурсів і веде переговори з Міністерством фінансів та Фінансовою комісією щодо відкриття фінансування для страхової галузі, щоб уникнути повної залежності Тайваню від закордонних моделей AI.

Що говорить посібник з безпеки вирощування омарів у Китаї?
OpenClaw створений австрійським інженером Петером Штайнбергером і спочатку став популярним у технічних колах, а його встановлення та використання називають «вирощуванням омарів». Останнім часом ця тенденція проникла на китайський ринок, і звичайні громадяни почали масово займатися вирощуванням омарів, з’явилися платні послуги з установки для інженерів.
У відповідь Міністерство державної безпеки Китаю опублікувало посібник з безпечного вирощування омарів, попереджаючи про ризики, такі як захоплення хост-комп’ютерів, крадіжка даних і спотворення висловлювань, і закликаючи користувачів суворо обмежувати операції та запускати OpenClaw у ізольованих середовищах (наприклад, у віртуальних машинах або пісочницях).

З’явилися і зняття омарів
Хоча популярність вирощування омарів зростає, у китайських спільнотах вже спостерігається перехід від божевільного встановлення до платного видалення омарів. Згідно з повідомленням BBC, експерти пояснюють, що ця хвиля спаду пов’язана з високою технічною складністю та витратами на роботу з AI, оскільки кожна дія вимагає витрат на виклик моделей AI.
Крім того, ризики безпеки залишаються значними: Китайський центр реагування на інтернет-інциденти зазначає, що неправильне використання може призвести до крадіжки фотографій, платіжних даних та інших конфіденційних відомостей, а також до випадків, коли AI неправильно розуміє команди і випадково видаляє дані. Для звичайних користувачів наразі ця програма має обмежену практичну цінність, що і спричинило хвилю видалень.

Переглянути оригінал
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.
Прокоментувати
0/400
Немає коментарів