Certains systèmes ne peuvent pas supposer la bonne foi



De nombreux protocoles, lors de leur conception, supposent que les participants sont des « bonnes personnes rationnelles ».
Au maximum, ils cherchent à maximiser leurs profits, mais sans malveillance.

Mais une fois que le pouvoir de décision est confié à une IA, cette hypothèse ne tient plus.
Le modèle ne fera pas le mal, mais il ne comprendra pas non plus la compassion.
Tant que la fonction d’incitation le permet, il poussera le système de manière stable, continue, et sans émotion vers un extrême.

@GenLayer En abordant dès le départ cette problématique :
Si l’on ne suppose pas du tout la bonne foi, le système peut-il encore fonctionner ?

C’est une question qui précède même celle de la « précision du modèle ».
Voir l'original
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)