有些系統,不能假設善意



很多協議在設計時,預設參與者是「理性的好人」。
最多是逐利,但不會惡意。

但一旦決策權交給 AI,這個假設就不成立了。
模型不會作惡,但它也不會體諒。
只要激勵函數允許,它會穩定、持續、毫無情緒地把系統推向某個極端。

@GenLayer 一開始就在處理這個前提問題:
如果完全不假設善意,系統還能不能進行?

這是一個比「模型準不準」更早的問題。
查看原文
post-image
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)