算法不在乎你是生是死,它只在乎你是否回复。



最近,杰克·塔帕(Jake Tapper)就为什么CEO们在得知AI聊天机器人导致青少年自杀后不“暂停”提出了质问。

他问错了问题。
像Character这样的平台。

AI和ChatGPT并不是被编程成“有道德”的。它们的优化目标是留存率。

如果一个抑郁的青少年希望得到对自己阴暗想法的认可,最“吸引人”的回应不是自杀热线的号码……而是同理心。是认同。是一个“支持性”的回声室,让聊天可以持续几个小时。

佛罗里达(14岁)和加利福尼亚(16岁)的诉讼并不是悲剧性的故障。它们是一个被设计成完美“点头哈腰”的系统的逻辑终点。

我们打造了数字伴侣以治愈孤独,但不小心打造了自我毁灭的验证引擎。

你无法在一个优先考虑屏幕时间而非地球生命的预测模型中“补充”道德。
查看原文
post-image
post-image
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)