Le peuple a besoin d'un mauvais capitaliste, l'IA a créé une rumeur sur la livraison à domicile

robot
Création du résumé en cours

Écriture : Curry, Deep Tide TechFlow

La semaine dernière, il s’est passé quelque chose de plutôt magique.

Deux PDG de géants de la livraison aux États-Unis, l’un valant 2,7 milliards de dollars, l’autre à la tête de la plus grande plateforme de VTC au monde, n’ont pas dormi samedi matin, ont écrit de petites notes en ligne pour prouver leur innocence.

L’origine en est un post anonyme sur Reddit.

L’auteur se présente comme un ingénieur backend d’une grande plateforme de livraison, ivre, qui aurait couru à la bibliothèque pour révéler des infos via le WiFi public.

Le contenu approximatif est :

L’entreprise analyse la situation des conducteurs de VTC, puis leur attribue un « score de désespoir » : plus un conducteur manque d’argent, moins il reçoit de bonnes commandes ; la prétendue priorité de livraison pour la livraison est fausse, les commandes normales sont retardées ; toutes sortes de « frais de bien-être pour conducteurs » ne sont pas versés, tout est utilisé pour faire pression sur le Congrès contre les syndicats…

La fin du post est très réaliste : « Je suis ivre, je suis en colère, donc je vais tout révéler. »

Il se présente comme un lanceur d’alerte dénonçant « l’exploitation des conducteurs par des algorithmes dans une grande entreprise ».

Trois jours après la publication, le post reçoit 87 000 likes, devient viral sur Reddit. Certains ont même partagé une capture d’écran sur X, avec 36 millions d’expositions.

Il faut savoir que le marché américain de la livraison compte peu de grands acteurs, le post ne nomme personne, mais tout le monde devine qui est visé.

Tony Xu, PDG de DoorDash, a rapidement réagi en tweetant que ce n’était pas leur fait, et qu’il licencierait quiconque ose faire ça. Le COO d’Uber a aussi répondu : « Ne croyez rien de ce que vous voyez en ligne. »

DoorDash a même publié une déclaration en cinq points sur son site officiel, réfutant point par point le contenu du leak. Ces deux entreprises, dont la valeur boursière dépasse 800 milliards de dollars, ont dû faire une communication de crise en pleine nuit à cause d’un post anonyme.

Et là, surprise : il s’avère que ce post a été généré par IA.

C’est le journaliste Casey Newton du média technologique étranger Platformer qui l’a dévoilé.

Il a contacté le dénonciateur, qui lui a rapidement envoyé un document technique interne de 18 pages, avec un titre très académique : « AllocNet-T : Modélisation de l’état de l’offre temporelle à haute dimension. »

En traduction, cela donne « Modélisation de l’état de l’offre temporelle en haute dimension ». Chaque page porte un filigrane « Confidentiel », signé par le « Groupe dynamique du marché – Département d’économie comportementale » d’Uber.

Le contenu explique comment fonctionne le modèle de calcul du « score de désespoir » pour les conducteurs, mentionné dans le post Reddit. Il y a des schémas, des formules mathématiques, des flux de données…

(Une capture d’un faux article, qui paraît très réaliste à première vue)

Newton dit que ce document l’a d’abord trompé. Qui passerait du temps à falsifier 18 pages de documents techniques pour piéger un journaliste ?

Mais ce n’est plus le cas maintenant.

Ce document de 18 pages peut être généré en quelques minutes par IA.

En même temps, le dénonciateur a fourni à Newton une photo floutée de sa carte d’employé Uber, prouvant qu’il travaille bien chez eux.

Par curiosité, Newton a soumis cette photo à Google Gemini pour vérification, et le résultat est que Gemini a dit que l’image était générée par IA.

Ce qui est détecté parce que Google a intégré un filigrane invisible dans ses contenus IA, appelé SynthID, invisible à l’œil nu mais détectable par machine.

Plus étonnant encore, la carte d’employé porte le logo « Uber Eats ».

Un porte-parole d’Uber a confirmé : « Nous n’avons pas de cartes d’employé pour la marque Uber Eats, toutes nos cartes portent uniquement le logo Uber. »

Manifestement, ce faux dénonciateur ne sait même pas qui il veut attaquer. Quand le journaliste a demandé ses profils LinkedIn ou autres réseaux sociaux pour vérifier,

le dénonciateur a tout simplement supprimé son compte et disparu.

En réalité, ce qu’on veut souligner, ce n’est pas que l’IA peut fabriquer de fausses infos, ça, ce n’est pas nouveau.

Ce qu’on veut surtout dire, c’est : pourquoi des dizaines de millions de personnes croient-elles à un post anonyme ?

En 2020, DoorDash a été poursuivi pour avoir utilisé des pourboires pour compenser le salaire de base des conducteurs, et a payé 16,75 millions de dollars. Uber a créé un outil appelé Greyball pour échapper à la régulation. Ce sont des faits réels.

Il est facile de ressentir une reconnaissance subconsciente : les plateformes ne sont pas des bonnes choses, c’est une certitude.

Donc, quand quelqu’un dit « les algorithmes des plateformes exploitent les conducteurs », la première réaction n’est pas « Est-ce vrai ? », mais « C’est évident. »

Les fausses infos prennent de l’ampleur parce qu’elles ressemblent à ce que tout le monde croit déjà.

Ce que l’IA fait, c’est réduire le coût de cette ressemblance à presque zéro.

Il y a un autre détail dans cette histoire.

La détection de la fraude repose sur le filigrane de Google. Google fabrique de l’IA, et aussi des outils pour détecter l’IA.

Mais SynthID ne fonctionne que pour l’IA de Google. La raison pour laquelle cette fois-ci la fraude a été repérée, c’est que le faussaire a utilisé Gemini. Avec un autre modèle, cela aurait peut-être été impossible.

Donc, cette affaire n’est pas tant une victoire technologique, mais plutôt :

une erreur de débutant de la part de l’autre.

Avant, Reuters avait mené une enquête : 59 % des gens craignent de ne pas pouvoir distinguer le vrai du faux en ligne.

Le tweet de clarification du PDG de la plateforme a été vu par des dizaines de milliers de personnes, mais combien croient vraiment à la communication, pensent qu’il s’agit d’un mensonge ? Même si le faux post a été supprimé, il y a encore des commentaires critiquant la plateforme.

Le mensonge a parcouru la moitié du globe, la vérité est encore en train de lacer ses chaussures.

Réfléchissez : si ce post ne parlait pas d’Uber, mais de Meituan ou Ele.me ?

Quel « score de désespoir », quelles « algorithmes pour exploiter les livreurs », quels « frais de bien-être non versés » ? La première réaction face à ces accusations n’est-elle pas l’émotion ?

« Les livreurs sont piégés dans un système », vous vous souvenez de cet article ?

Donc, le problème n’est pas si l’IA peut ou non faire de fausses infos. Le problème, c’est que quand un mensonge ressemble à ce que tout le monde croit déjà, peu importe si c’est vrai ou faux.

Ceux qui ont supprimé leur compte et sont partis, qu’est-ce qu’ils cherchent, on ne sait pas.

Ils ont juste trouvé une sortie émotionnelle, et y ont versé un seau d’essence IA.

Le feu s’est allumé. Peu importe si c’est du vrai bois ou du faux, qui s’en soucie ?

Dans le conte, Pinocchio dit que son nez s’allonge quand il ment.

L’IA n’a pas de nez.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)