Algunos sistemas no pueden suponer buena voluntad



Muchos protocolos, en su diseño, asumen que los participantes son «personas racionales y buenas».
Como máximo buscan beneficios, pero no son maliciosos.

Pero una vez que la toma de decisiones se entrega a la IA, esta suposición ya no se sostiene.
El modelo no hará el mal, pero tampoco tendrá empatía.
Mientras las funciones de incentivo lo permitan, impulsará el sistema de manera estable, continua y sin emociones hacia un extremo.

@GenLayer Al principio, ya se enfrenta a esta premisa:
¿Puede un sistema funcionar sin suponer buena voluntad en absoluto?

Esta es una cuestión que va más allá de si el «modelo es preciso o no».
Ver originales
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • بالعربية
  • Português (Brasil)
  • 简体中文
  • English
  • Español
  • Français (Afrique)
  • Bahasa Indonesia
  • 日本語
  • Português (Portugal)
  • Русский
  • 繁體中文
  • Українська
  • Tiếng Việt