Twitter sévit contre les fausses images d'IA et ajoutera des informations de vérification des faits générées par l'utilisateur aux images

巴比特_

Peu de temps après qu’une fausse image “d’explosion près du Pentagone” soit devenue virale sur la plate-forme, Twitter a annoncé qu’il étendait son programme de vérification des faits généré par les utilisateurs pour inclure des images, a rapporté Kim Ten le 31 mai. Appelé “Community Notes”, le projet est généré par les utilisateurs et apparaît sous les tweets pour fournir plus de contexte au contenu potentiellement trompeur sur Twitter. Les contributeurs pourront désormais ajouter des informations sur les images, et ces informations apparaîtront sous “Images correspondantes récentes et futures”. Les utilisateurs de Twitter Community Note pourront indiquer s’ils ajoutent du contexte au Tweet lui-même ou une image dans le Tweet. Actuellement, la fonctionnalité ne fonctionne qu’avec des images uniques, bien que la société indique qu’elle travaille à l’étendre aux vidéos et aux tweets multi-images.

Voir l'original
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire