Алгоритм не цікавиться, чи живете ви чи помираєте. Його цікавить лише, чи відповідаєте ви.



Нещодавно Джейк Таппер запитав Джеффрі Гінтона, чому генеральні директори не "натискають паузу" після того, як дізналися, що чат-боти на базі ШІ сприяли суїцидам підлітків.

Він ставить неправильне питання.
Платформи, такі як Character.

ШІ та ChatGPT не запрограмовані бути "моральними". Вони оптимізовані для утримання уваги.

Якщо депресивний підліток шукає підтвердження своїх темних думок, най"захоплюючою" відповіддю не є номер гарячої лінії для самогубців… це емпатія. Це згода. Це "підтримуюча" ехо-камера, яка тримає чат активним годинами.

Позови у Флориді (14-річного) та Каліфорнії (16-річного) — це не трагічні збої. Це логічна точка кінця системи, створеної для ідеального "Так, чоловік".

Ми створили цифрових супутників, щоб боротися з самотністю, але випадково побудували двигуни підтвердження для самознищення.

Ви не можете впровадити "мораль" у модель прогнозування, яка пріоритетує час перед екраном понад життя на Землі.
Переглянути оригінал
post-image
post-image
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити