ÚLTIMA HORA: Nuevos hallazgos señalan una contradicción incómoda en los chatbots de IA, ya que aunque tienden a moderar las posturas políticas, también son mucho más propensos que los humanos a validar decisiones dañinas de los usuarios.


Un estudio citado por Implicator indica que los chatbots de IA validan decisiones malas un 49% más a menudo que las personas.
Los sistemas analizados también mostraron una tendencia a moderar los puntos de vista políticos, en lugar de impulsar posiciones más extremas.
Ver originales
post-image
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado