Dos CEOs de las principales empresas de reparto en Estados Unidos, uno con un patrimonio de 27 mil millones de dólares y otro que dirige la plataforma de transporte por app más grande del mundo, estuvieron despiertos hasta la madrugada del sábado escribiendo pequeños textos en línea para defenderse.
El origen fue una publicación anónima en Reddit.
La persona que publicó se autodenominó ingeniero de backend de una gran plataforma de reparto, estaba borracho y fue a la biblioteca a usar WiFi público para filtrar información.
El contenido más o menos decía:
La empresa analiza la situación de los conductores de transporte por app y les asigna un “puntuación de desesperación”; cuanto más desesperados estén, menos oportunidades de buenos pedidos tendrán; la supuesta prioridad en la entrega de comida es falsa, los pedidos normales se retrasan; no se les paga nada en concepto de “beneficios para conductores”, todo se destina a convencer al Congreso para enfrentarse a los sindicatos…
El final de la publicación fue muy convincente: “Estoy borracho, estoy muy enojado, así que voy a filtrar esto”.
Se presentó como un denunciante que revela cómo las “grandes empresas usan algoritmos para explotar a los conductores”.
Tres días después, la publicación tenía 87,000 “me gusta” y llegó a la portada de Reddit. También hubo capturas de pantalla que se compartieron en X, logrando 36 millones de visualizaciones.
Hay que recordar que en el mercado de reparto en EE. UU. solo hay unos pocos grandes jugadores, la publicación no mencionaba nombres, pero todos adivinaron quién era.
Tony Xu, CEO de DoorDash, no pudo quedarse quieto y tuiteó que eso no era cosa de ellos, y que quien lo hiciera sería despedido. El COO de Uber también respondió: “No crean todo lo que ven en línea”.
Incluso, DoorDash publicó en su sitio oficial una declaración en cinco puntos, refutando cada uno de los detalles del filtrado. Estas dos empresas, con un valor de mercado superior a 800 mil millones de dólares, se vieron en la necesidad de hacer una aclaración de emergencia por un post anónimo.
Luego, se descubrió que esa publicación había sido generada por IA.
La revelación vino del periodista Casey Newton, de la revista tecnológica extranjera Platformer.
Él contactó al denunciante, quien rápidamente envió un documento técnico interno de 18 páginas, con un título muy académico: “AllocNet-T: Modelado de Estado de Suministro Temporal de Alta Dimensionalidad”.
Traducido sería algo así como “Modelado de Estado de Suministro Temporal en Alta Dimensión”. Cada página llevaba una marca de “confidencial” y estaba firmada por el “Equipo de Dinámica de Mercado y Economía Conductual” de Uber.
El contenido explicaba cómo se calcula ese “puntuación de desesperación” para los conductores, según el modelo mencionado en la publicación de Reddit. Incluía diagramas de arquitectura, fórmulas matemáticas, flujos de datos…
(Captura de una supuesta tesis falsa, que a simple vista parecía muy real)
Newton dijo que esa documentación inicialmente lo engañó. ¿Quién se molesta en falsificar un documento técnico de 18 páginas para engañar a un periodista?
Pero ahora, la cosa cambió.
Ese documento de 18 páginas puede ser generado en minutos por IA.
Al mismo tiempo, el denunciante también envió al periodista una foto de su credencial de empleado de Uber con la cara pixelada, para demostrar que realmente trabaja allí.
Por curiosidad, Newton subió esa credencial a Google Gemini para verificarla, y el resultado fue que Gemini dijo que esa imagen era generada por IA.
Se pudo detectar porque Google incluye una marca de agua invisible llamada SynthID en los contenidos generados por su propia IA, que no se ve a simple vista, pero la máquina puede detectar.
Lo más sorprendente es que en la credencial aparece el logo de “Uber Eats”.
Un portavoz de Uber confirmó: “No tenemos credenciales de empleados con la marca Uber Eats. Todas las credenciales solo llevan el logo de Uber”.
Claramente, ese falso denunciante no tenía ni idea de a quién quería atacar. Cuando el periodista pidió sus perfiles en LinkedIn u otras redes sociales para verificar, el denunciante simplemente borró su cuenta y desapareció.
En realidad, lo que queremos decir no es que la IA pueda hacer falsificaciones, eso ya no es novedad.
Lo que realmente nos interesa es: ¿por qué millones de personas están dispuestas a creer en una publicación anónima?
En 2020, DoorDash fue demandada por pagar propinas que se descontaban del salario base de los conductores, y tuvo que pagar 16,75 millones de dólares. Uber desarrolló una herramienta llamada Greyball, que servía para evadir regulaciones. Eso son hechos reales.
Es muy fácil que las personas tengan una identificación subconsciente: “Las plataformas no son buenas, eso está claro”.
Por eso, cuando alguien dice “las plataformas de reparto explotan a los conductores con algoritmos”, la primera reacción no es “¿Es cierto?”, sino “Claro que sí”.
Las noticias falsas se propagan porque parecen coincidir con lo que la gente ya cree. La IA, en cambio, reduce el costo de hacer que esa “apariencia” sea creíble a casi cero.
Hay un detalle más en esta historia.
La detección del engaño se basa en la marca de agua de Google. Google desarrolla IA y también herramientas para detectar IA.
Pero SynthID solo funciona con los contenidos generados por la propia IA de Google. En esta ocasión, funcionó porque el falso denunciante usó Gemini. Si hubiera usado otro modelo, quizás no habría sido tan fácil detectarlo.
Por eso, esta resolución del caso no es tanto un triunfo técnico, sino que:
El otro lado cometió un error básico.
Antes, Reuters realizó una encuesta en la que el 59% de las personas decía que no podía distinguir entre lo real y lo falso en internet.
El tuit de aclaración de los CEOs de las plataformas fue visto por decenas de miles, pero ¿cuántas personas realmente creen que es una estrategia de relaciones públicas o una mentira? Aunque esa publicación falsa ya fue eliminada, en los comentarios todavía hay quienes critican a las plataformas.
La mentira recorrió medio mundo, pero la verdad todavía está atada en los cordones.
Piensa: si esa publicación no fuera de Uber, sino de Meituan o Ele.me, ¿qué pasaría?
¿Ese “puntuación de desesperación”, esa “explotación de conductores con algoritmos”, esa “falta de pago de beneficios”? Cuando ves esas acusaciones, ¿tu primera reacción no es emocionalmente de acuerdo?
¿Recuerdas ese artículo titulado “Repartidores atrapados en el sistema”?
Entonces, el problema no es si la IA puede falsificar. El problema es que, cuando una mentira se parece a algo que ya crees, ¿importa si es verdadera o falsa?
El que borró su cuenta y huyó, ¿qué buscaba? No lo sabemos.
Solo sabemos que encontró una salida emocional y vertió allí un cubo de combustible generado por IA.
El incendio empezó. Y da igual si es con madera verdadera o falsa, ¿a quién le importa?
En los cuentos, Pinocho dice que su nariz se alarga cuando miente.
La IA no tiene nariz.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
La gente necesita un mal capitalista, la IA creó un rumor sobre entregas a domicilio
Escrito por: Curry, Deep Tide TechFlow
La semana pasada ocurrió algo bastante mágico.
Dos CEOs de las principales empresas de reparto en Estados Unidos, uno con un patrimonio de 27 mil millones de dólares y otro que dirige la plataforma de transporte por app más grande del mundo, estuvieron despiertos hasta la madrugada del sábado escribiendo pequeños textos en línea para defenderse.
El origen fue una publicación anónima en Reddit.
La persona que publicó se autodenominó ingeniero de backend de una gran plataforma de reparto, estaba borracho y fue a la biblioteca a usar WiFi público para filtrar información.
El contenido más o menos decía:
La empresa analiza la situación de los conductores de transporte por app y les asigna un “puntuación de desesperación”; cuanto más desesperados estén, menos oportunidades de buenos pedidos tendrán; la supuesta prioridad en la entrega de comida es falsa, los pedidos normales se retrasan; no se les paga nada en concepto de “beneficios para conductores”, todo se destina a convencer al Congreso para enfrentarse a los sindicatos…
El final de la publicación fue muy convincente: “Estoy borracho, estoy muy enojado, así que voy a filtrar esto”.
Se presentó como un denunciante que revela cómo las “grandes empresas usan algoritmos para explotar a los conductores”.
Tres días después, la publicación tenía 87,000 “me gusta” y llegó a la portada de Reddit. También hubo capturas de pantalla que se compartieron en X, logrando 36 millones de visualizaciones.
Hay que recordar que en el mercado de reparto en EE. UU. solo hay unos pocos grandes jugadores, la publicación no mencionaba nombres, pero todos adivinaron quién era.
Tony Xu, CEO de DoorDash, no pudo quedarse quieto y tuiteó que eso no era cosa de ellos, y que quien lo hiciera sería despedido. El COO de Uber también respondió: “No crean todo lo que ven en línea”.
Incluso, DoorDash publicó en su sitio oficial una declaración en cinco puntos, refutando cada uno de los detalles del filtrado. Estas dos empresas, con un valor de mercado superior a 800 mil millones de dólares, se vieron en la necesidad de hacer una aclaración de emergencia por un post anónimo.
Luego, se descubrió que esa publicación había sido generada por IA.
La revelación vino del periodista Casey Newton, de la revista tecnológica extranjera Platformer.
Él contactó al denunciante, quien rápidamente envió un documento técnico interno de 18 páginas, con un título muy académico: “AllocNet-T: Modelado de Estado de Suministro Temporal de Alta Dimensionalidad”.
Traducido sería algo así como “Modelado de Estado de Suministro Temporal en Alta Dimensión”. Cada página llevaba una marca de “confidencial” y estaba firmada por el “Equipo de Dinámica de Mercado y Economía Conductual” de Uber.
El contenido explicaba cómo se calcula ese “puntuación de desesperación” para los conductores, según el modelo mencionado en la publicación de Reddit. Incluía diagramas de arquitectura, fórmulas matemáticas, flujos de datos…
(Captura de una supuesta tesis falsa, que a simple vista parecía muy real)
Newton dijo que esa documentación inicialmente lo engañó. ¿Quién se molesta en falsificar un documento técnico de 18 páginas para engañar a un periodista?
Pero ahora, la cosa cambió.
Ese documento de 18 páginas puede ser generado en minutos por IA.
Al mismo tiempo, el denunciante también envió al periodista una foto de su credencial de empleado de Uber con la cara pixelada, para demostrar que realmente trabaja allí.
Por curiosidad, Newton subió esa credencial a Google Gemini para verificarla, y el resultado fue que Gemini dijo que esa imagen era generada por IA.
Se pudo detectar porque Google incluye una marca de agua invisible llamada SynthID en los contenidos generados por su propia IA, que no se ve a simple vista, pero la máquina puede detectar.
Lo más sorprendente es que en la credencial aparece el logo de “Uber Eats”.
Un portavoz de Uber confirmó: “No tenemos credenciales de empleados con la marca Uber Eats. Todas las credenciales solo llevan el logo de Uber”.
Claramente, ese falso denunciante no tenía ni idea de a quién quería atacar. Cuando el periodista pidió sus perfiles en LinkedIn u otras redes sociales para verificar, el denunciante simplemente borró su cuenta y desapareció.
En realidad, lo que queremos decir no es que la IA pueda hacer falsificaciones, eso ya no es novedad.
Lo que realmente nos interesa es: ¿por qué millones de personas están dispuestas a creer en una publicación anónima?
En 2020, DoorDash fue demandada por pagar propinas que se descontaban del salario base de los conductores, y tuvo que pagar 16,75 millones de dólares. Uber desarrolló una herramienta llamada Greyball, que servía para evadir regulaciones. Eso son hechos reales.
Es muy fácil que las personas tengan una identificación subconsciente: “Las plataformas no son buenas, eso está claro”.
Por eso, cuando alguien dice “las plataformas de reparto explotan a los conductores con algoritmos”, la primera reacción no es “¿Es cierto?”, sino “Claro que sí”.
Las noticias falsas se propagan porque parecen coincidir con lo que la gente ya cree. La IA, en cambio, reduce el costo de hacer que esa “apariencia” sea creíble a casi cero.
Hay un detalle más en esta historia.
La detección del engaño se basa en la marca de agua de Google. Google desarrolla IA y también herramientas para detectar IA.
Pero SynthID solo funciona con los contenidos generados por la propia IA de Google. En esta ocasión, funcionó porque el falso denunciante usó Gemini. Si hubiera usado otro modelo, quizás no habría sido tan fácil detectarlo.
Por eso, esta resolución del caso no es tanto un triunfo técnico, sino que:
El otro lado cometió un error básico.
Antes, Reuters realizó una encuesta en la que el 59% de las personas decía que no podía distinguir entre lo real y lo falso en internet.
El tuit de aclaración de los CEOs de las plataformas fue visto por decenas de miles, pero ¿cuántas personas realmente creen que es una estrategia de relaciones públicas o una mentira? Aunque esa publicación falsa ya fue eliminada, en los comentarios todavía hay quienes critican a las plataformas.
La mentira recorrió medio mundo, pero la verdad todavía está atada en los cordones.
Piensa: si esa publicación no fuera de Uber, sino de Meituan o Ele.me, ¿qué pasaría?
¿Ese “puntuación de desesperación”, esa “explotación de conductores con algoritmos”, esa “falta de pago de beneficios”? Cuando ves esas acusaciones, ¿tu primera reacción no es emocionalmente de acuerdo?
¿Recuerdas ese artículo titulado “Repartidores atrapados en el sistema”?
Entonces, el problema no es si la IA puede falsificar. El problema es que, cuando una mentira se parece a algo que ya crees, ¿importa si es verdadera o falsa?
El que borró su cuenta y huyó, ¿qué buscaba? No lo sabemos.
Solo sabemos que encontró una salida emocional y vertió allí un cubo de combustible generado por IA.
El incendio empezó. Y da igual si es con madera verdadera o falsa, ¿a quién le importa?
En los cuentos, Pinocho dice que su nariz se alarga cuando miente.
La IA no tiene nariz.