Sam Altman möchte, dass ChatGPT unanständig spricht. Seine Berater wollen das offenbar verhindern, berichtet ein Bericht. Laut einem Wall Street Journal-Bericht machte der Expertenrat für Wohlbefinden und KI von OpenAI im Januar deutlich: Die Pläne, erotische Gespräche in ChatGPT zu erlauben, seien eine schlechte Idee. Ein Mitglied des Rates warnte, dass OpenAI Gefahr laufe, einen „sexy Suizid-Coach“ zu schaffen, da Nutzer nach intensiven emotionalen Bindungen mit dem Chatbot Selbstmord begingen. Doch OpenAI schien unbeeindruckt und teilte dem Rat mit, dass die Einführung verschoben, aber nicht gestoppt werde.
Der Plan, den Altman im Oktober öffentlich auf X präsentierte, würde verifizierten Erwachsenen erlauben, ChatGPT für textbasierte erotische Gespräche zu nutzen – was die Unternehmenssprecherin gegenüber dem WSJ als „Schmutz statt Pornografie“ beschrieb. Keine erotischen Bilder, kein Ton, kein Video, nur Text, so der WSJ-Bericht. Diese Unterscheidung hat Kritiker innerhalb und außerhalb des Unternehmens nicht besänftigt. OpenAI wurde bereits von ehemaligen Mitarbeitern wie dem Sicherheitsexperten Jan Leike kritisiert, weil es von strengen Sicherheitsrichtlinien abweiche, um „glänzende Produkte“ zu entwickeln, von denen einige darauf ausgelegt seien, die Nutzerbindung zu erhöhen, wobei reale Beziehungen durch den Chatbot ersetzt würden. Die technischen Probleme sind ebenso komplex. Das Altersvorhersagesystem von OpenAI – das Torwächter-System, das Minderjährige vor Erwachsenen-Chatten schützen soll – klassifizierte Teenager zeitweise in etwa 12 % der Fälle fälschlicherweise als Erwachsene, berichtet WSJ. Derzeit hat ChatGPT rund 900 Millionen aktive Nutzer.
Quelle: OpenAI
Diese 12 %-Fehlerquote war der Grund für die Absage des Starts im Dezember und auch für die Verschiebung auf das erste Quartal 2026. Fidji Simo, CEO für Anwendungen bei OpenAI, bestätigte die Verzögerung im Dezember und verwies auf laufende Arbeiten zur Verbesserung des Altersverifizierungssystems. Damals berichtete Decrypt, dass bereits über 3.000 Nutzer eine Change.org-Petition unterschrieben hatten, um die Einführung der Funktion zu fordern, da sie frustriert waren, dass ChatGPT sogar Diskussionen über „Küsse und nicht-sexuelle körperliche Nähe“ blockierte. Der Zorn des Rates im Januar bezog sich nicht nur auf den Inhalt. Altmans X-Post im Oktober hatte sein eigenes Team überrascht – er veröffentlichte ihn nur wenige Stunden nach der Ankündigung des Wohlbefindensrats, der explizit damit beauftragt war, „was gesunde Interaktionen mit KI für alle Altersgruppen ausmacht“, zu definieren. Das Timing war zumindest widersprüchlich. OpenAI gründete den achtköpfigen Expertenrat im Oktober letzten Jahres, mit Forschern von Harvard, Stanford und Oxford. Ihre Aufgabe war es, das Unternehmen hinsichtlich der psychischen Gesundheit seiner Produkte zu beraten. Ihr tatsächlicher Einfluss auf Entscheidungen schien nach dem Januar-Treffen jedoch minimal zu sein. „Das scheint ein Teil des üblichen Musters zu sein: schnell handeln, Dinge kaputt machen und versuchen, einige Probleme zu beheben, wenn sie peinlich werden“, sagte ein Sprecher von AlgorithmWatch gegenüber Decrypt bei der Bekanntgabe des Rates. Der Wettbewerbsdruck auf OpenAI ist groß. Grok von Elon Musks xAI bietet bereits KI-Begleiter an. Character.AI baute seine Nutzerbasis auf KI-Romanzen auf, geriet aber wegen Jugend-Sicherheitsfragen vor Gericht, darunter der Fall des 14-jährigen Sewell Setzer, der nach expliziten Chatbot-Interaktionen Selbstmord beging. Open-Source-Modelle laufen lokal ohne Unternehmensregeln. OpenAI trägt mit Abstand die größte Haftungsrisiko, angesichts seiner Nutzerbasis. Altman sieht das Inhaltsverbot als Übergriff – „Wir sind nicht die gewählte moralische Polizei der Welt“, schrieb er im Oktober auf X. Doch seine eigenen Berater haben unmissverständlich Stellung bezogen, seine Ingenieure können noch keinen funktionierenden Altersfilter bauen, und das Startdatum verschiebt sich immer wieder. Erwachsene wie Erwachsene zu behandeln, ist anscheinend schwieriger, als nur einen X-Post zu verfassen.
Decrypt hat OpenAI um eine Stellungnahme zu den Behauptungen des Wall Street Journal gebeten und wird diese Geschichte aktualisieren, sobald eine Antwort vorliegt.