OpenAI setzt sich trotz Warnung vor "Sex-Suizid-Coach" für ChatGPT-Erotik-Modus durch: WSJ

Decrypt
GROK13,24%
XAI2,75%

Kurzfassung

  • Berater von OpenAI warnten ChatGPT laut einem WSJ-Bericht davor, dass der geplante erotische Modus eine gefährliche emotionale Abhängigkeit erzeugen könnte.
  • Der KI-Riese verzögerte – aber stoppte nicht – die Erwachsenen-Chat-Funktion aufgrund von Altersverifizierungsproblemen.
  • Innerhalb des Unternehmens wachsen die Spannungen, da Kritik mit Altmans Forderung nach lockereren Inhaltsregeln kollidiert.

Sam Altman möchte, dass ChatGPT unanständig spricht. Seine Berater wollen das offenbar verhindern, berichtet ein Bericht. Laut einem Wall Street Journal-Bericht machte der Expertenrat für Wohlbefinden und KI von OpenAI im Januar deutlich: Die Pläne, erotische Gespräche in ChatGPT zu erlauben, seien eine schlechte Idee. Ein Mitglied des Rates warnte, dass OpenAI Gefahr laufe, einen „sexy Suizid-Coach“ zu schaffen, da Nutzer nach intensiven emotionalen Bindungen mit dem Chatbot Selbstmord begingen. Doch OpenAI schien unbeeindruckt und teilte dem Rat mit, dass die Einführung verschoben, aber nicht gestoppt werde.

Der Plan, den Altman im Oktober öffentlich auf X präsentierte, würde verifizierten Erwachsenen erlauben, ChatGPT für textbasierte erotische Gespräche zu nutzen – was die Unternehmenssprecherin gegenüber dem WSJ als „Schmutz statt Pornografie“ beschrieb. Keine erotischen Bilder, kein Ton, kein Video, nur Text, so der WSJ-Bericht.  Diese Unterscheidung hat Kritiker innerhalb und außerhalb des Unternehmens nicht besänftigt. OpenAI wurde bereits von ehemaligen Mitarbeitern wie dem Sicherheitsexperten Jan Leike kritisiert, weil es von strengen Sicherheitsrichtlinien abweiche, um „glänzende Produkte“ zu entwickeln, von denen einige darauf ausgelegt seien, die Nutzerbindung zu erhöhen, wobei reale Beziehungen durch den Chatbot ersetzt würden. Die technischen Probleme sind ebenso komplex. Das Altersvorhersagesystem von OpenAI – das Torwächter-System, das Minderjährige vor Erwachsenen-Chatten schützen soll – klassifizierte Teenager zeitweise in etwa 12 % der Fälle fälschlicherweise als Erwachsene, berichtet WSJ. Derzeit hat ChatGPT rund 900 Millionen aktive Nutzer.

Quelle: OpenAI

Diese 12 %-Fehlerquote war der Grund für die Absage des Starts im Dezember und auch für die Verschiebung auf das erste Quartal 2026. Fidji Simo, CEO für Anwendungen bei OpenAI, bestätigte die Verzögerung im Dezember und verwies auf laufende Arbeiten zur Verbesserung des Altersverifizierungssystems. Damals berichtete Decrypt, dass bereits über 3.000 Nutzer eine Change.org-Petition unterschrieben hatten, um die Einführung der Funktion zu fordern, da sie frustriert waren, dass ChatGPT sogar Diskussionen über „Küsse und nicht-sexuelle körperliche Nähe“ blockierte. Der Zorn des Rates im Januar bezog sich nicht nur auf den Inhalt. Altmans X-Post im Oktober hatte sein eigenes Team überrascht – er veröffentlichte ihn nur wenige Stunden nach der Ankündigung des Wohlbefindensrats, der explizit damit beauftragt war, „was gesunde Interaktionen mit KI für alle Altersgruppen ausmacht“, zu definieren. Das Timing war zumindest widersprüchlich. OpenAI gründete den achtköpfigen Expertenrat im Oktober letzten Jahres, mit Forschern von Harvard, Stanford und Oxford. Ihre Aufgabe war es, das Unternehmen hinsichtlich der psychischen Gesundheit seiner Produkte zu beraten. Ihr tatsächlicher Einfluss auf Entscheidungen schien nach dem Januar-Treffen jedoch minimal zu sein. „Das scheint ein Teil des üblichen Musters zu sein: schnell handeln, Dinge kaputt machen und versuchen, einige Probleme zu beheben, wenn sie peinlich werden“, sagte ein Sprecher von AlgorithmWatch gegenüber Decrypt bei der Bekanntgabe des Rates. Der Wettbewerbsdruck auf OpenAI ist groß. Grok von Elon Musks xAI bietet bereits KI-Begleiter an. Character.AI baute seine Nutzerbasis auf KI-Romanzen auf, geriet aber wegen Jugend-Sicherheitsfragen vor Gericht, darunter der Fall des 14-jährigen Sewell Setzer, der nach expliziten Chatbot-Interaktionen Selbstmord beging. Open-Source-Modelle laufen lokal ohne Unternehmensregeln. OpenAI trägt mit Abstand die größte Haftungsrisiko, angesichts seiner Nutzerbasis. Altman sieht das Inhaltsverbot als Übergriff – „Wir sind nicht die gewählte moralische Polizei der Welt“, schrieb er im Oktober auf X. Doch seine eigenen Berater haben unmissverständlich Stellung bezogen, seine Ingenieure können noch keinen funktionierenden Altersfilter bauen, und das Startdatum verschiebt sich immer wieder. Erwachsene wie Erwachsene zu behandeln, ist anscheinend schwieriger, als nur einen X-Post zu verfassen.

Decrypt hat OpenAI um eine Stellungnahme zu den Behauptungen des Wall Street Journal gebeten und wird diese Geschichte aktualisieren, sobald eine Antwort vorliegt.

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare