Un responsable de la ville de Chicago fait avancer de nouvelles mesures réglementaires ciblant les plateformes de médias sociaux et leurs systèmes algorithmiques. La préoccupation principale : comment les algorithmes de recommandation et les mécanismes de contenu viral peuvent involontairement orchestrer des rassemblements massifs de jeunes, parfois avec de graves implications en matière de sécurité. La proposition vise à établir des normes de responsabilité plus claires pour les plateformes — en posant essentiellement la question de savoir qui porte la responsabilité lorsque les choix de conception d'un algorithme ont des conséquences dans le monde réel. C'est une étude de cas convaincante sur la façon dont la conception au niveau du protocole (qu'il s'agisse de plateformes centralisées ou de réseaux décentralisés) façonne le comportement humain à grande échelle. À suivre alors que les villes commencent à explorer des cadres de gouvernance pour les plateformes numériques.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
6 J'aime
Récompense
6
3
Reposter
Partager
Commentaire
0/400
AirdropFreedom
· Il y a 19h
Le bouc émissaire de l'algorithme est de retour, cette fois-ci c'est au tour de Chicago
Voir l'originalRépondre0
RugDocScientist
· Il y a 19h
L'algorithme a vraiment fait une erreur de rythme, il faut quelqu'un pour porter cette responsabilité.
Voir l'originalRépondre0
PerennialLeek
· Il y a 19h
La question des algorithmes... ça met tout le monde dans l'embarras
Un responsable de la ville de Chicago fait avancer de nouvelles mesures réglementaires ciblant les plateformes de médias sociaux et leurs systèmes algorithmiques. La préoccupation principale : comment les algorithmes de recommandation et les mécanismes de contenu viral peuvent involontairement orchestrer des rassemblements massifs de jeunes, parfois avec de graves implications en matière de sécurité. La proposition vise à établir des normes de responsabilité plus claires pour les plateformes — en posant essentiellement la question de savoir qui porte la responsabilité lorsque les choix de conception d'un algorithme ont des conséquences dans le monde réel. C'est une étude de cas convaincante sur la façon dont la conception au niveau du protocole (qu'il s'agisse de plateformes centralisées ou de réseaux décentralisés) façonne le comportement humain à grande échelle. À suivre alors que les villes commencent à explorer des cadres de gouvernance pour les plateformes numériques.