Sam Altman quiere que ChatGPT hable sucio. Los asesores de su empresa quieren que deje de hacerlo, afirma un informe. Según un informe del Wall Street Journal, el Consejo de Expertos en Bienestar y IA de OpenAI dejó clara su postura en enero: el plan de la compañía de permitir conversaciones eróticas en ChatGPT era una mala idea. Un miembro del consejo, citando a usuarios que se suicidaron tras formar vínculos emocionales intensos con el chatbot, advirtió que OpenAI corría el riesgo de crear un “coach de suicidio sexy.” Pero OpenAI aparentemente no se inmutó y dijo al consejo que retrasaría su lanzamiento, pero no lo cancelaría.
El plan, que Altman anunció públicamente en octubre en X, permitiría a adultos verificados usar ChatGPT para conversaciones eróticas por texto, lo que la portavoz de la compañía describió al WSJ como “pornografía suave en lugar de pornografía.” Sin imágenes eróticas, sin voz y sin video, según el WSJ. Solo texto. Esa distinción no ha calmado a los críticos dentro ni fuera de la empresa. OpenAI ya ha sido criticada incluso por ex empleados como el investigador de seguridad Jan Leike, por alejarse de políticas de seguridad estrictas a cambio de “productos llamativos,” algunos de los cuales estaban configurados para aumentar el compromiso con ciertos usuarios, reemplazando relaciones del mundo real con el chatbot. Los problemas técnicos son igual de complicados. El sistema de predicción de edad de OpenAI—el guardián destinado a evitar que menores inicien chats para adultos—en un momento clasificaba incorrectamente a adolescentes como adultos aproximadamente en un 12%, informa el WSJ. Actualmente, ChatGPT tiene alrededor de 900 millones de usuarios activos.
Fuente: OpenAI
Ese error del 12% fue la razón por la que se canceló el lanzamiento de diciembre y el de principios de 2026. Fidji Simo, CEO de aplicaciones de OpenAI, reconoció el retraso durante una sesión informativa en diciembre, citando trabajos en curso para perfeccionar el sistema de verificación de edad. En ese momento, Decrypt informó que más de 3,000 usuarios ya habían firmado una petición en Change.org exigiendo el lanzamiento de la función, frustrados porque ChatGPT bloqueaba incluso discusiones sobre “besos y cercanía física no sexual.” La furia del consejo en enero no fue solo por el contenido. La publicación de Altman en X en octubre tomó por sorpresa a su propio equipo—la publicó solo horas después de que OpenAI anunciara el consejo de bienestar, un organismo encargado explícitamente de definir “cómo deberían ser las interacciones saludables con IA para todas las edades.” La sincronización fue, como mínimo, contradictoria. OpenAI formó el consejo de expertos de ocho miembros en octubre pasado, reclutando investigadores de Harvard, Stanford y Oxford. Su papel era asesorar a la compañía sobre los impactos en la salud mental de sus productos. Su influencia en las decisiones de la empresa, según la reunión de enero, parece haber sido mínima en el mejor de los casos. “Esto parece parte del patrón habitual de avanzar rápido, romper cosas y tratar de arreglar algunas después de que se vuelven embarazosas,” dijo un portavoz de AlgorithmWatch a Decrypt cuando se anunció el consejo. La presión competitiva sobre OpenAI es real. Grok, de xAI de Elon Musk, ya comercializa compañeros de IA. Character.AI construyó su base de usuarios en romances con IA antes de enfrentarse a demandas por seguridad de menores, incluyendo el caso de Sewell Setzer, de 14 años, que se suicidó tras intercambios explícitos con un chatbot. Los modelos de código abierto funcionan localmente sin ningún control corporativo. OpenAI tiene, con diferencia, más exposición a responsabilidades que cualquier otro en la sala, dado su base de usuarios. Altman ha enmarcado la prohibición de contenido como una sobreextensión—“No somos la policía moral elegida del mundo,” escribió en X en octubre. Pero sus propios asesores han dejado clara su posición, sus ingenieros aún no pueden construir un filtro de edad que funcione, y la fecha de lanzamiento sigue moviéndose. Tratar a los adultos como adultos, resulta ser más difícil que simplemente publicar en X.
Decrypt contactó a OpenAI para comentar sobre las afirmaciones del informe del Wall Street Journal y actualizará esta historia si recibe respuesta.