Eine Koalition von Interessengruppen fordert den ChatGPT-Entwickler OpenAI auf, eine kalifornische Abstimmungsinitiative zurückzuziehen, die Kritiker als potenziell schädlich für den Schutz von Kindern und die rechtliche Verantwortlichkeit von KI-Unternehmen ansehen. In einem am Mittwoch an OpenAI gesendeten Schreiben, das Decrypt vorliegt, argumentiert die Gruppe, dass die Maßnahme enge Kinderschutzbestimmungen festschreiben würde, die Möglichkeit der Familien, Klagen einzureichen, einschränkt und Kaliforniens Fähigkeit, KI-Gesetze in Zukunft zu verschärfen, begrenzt. Das Schreiben, unterzeichnet von mehr als zwei Dutzend Organisationen, darunter die gemeinnützige KI-Politikorganisation Encode AI, das Center for Humane Technology und das Electronic Privacy Information Center, fordert OpenAI auf, sein Wahlkomitee aufzulösen und sich von dem Vorschlag zurückzuziehen, während Gesetzgeber an der Gesetzgebung arbeiten.
„Die Hauptforderung ist, dass OpenAI sich aus der Abstimmung zurückzieht“, sagte Adam Billen, Co-Geschäftsführer von Encode AI, gegenüber Decrypt. Der Streit dreht sich um einen vorgeschlagenen „Parents & Kids Safe AI Act“, eine kalifornische Abstimmungsinitiative, die von OpenAI und Common Sense Media unterstützt wird und Regeln für den Umgang von KI-Chatbots mit Minderjährigen festlegen soll, inklusive Sicherheitsanforderungen und Compliance-Standards. In dem Schreiben argumentieren die Gruppen, dass diese Regeln unzureichend sind. Sie sagen, die Maßnahme definiere Schaden zu eng, schränke die Durchsetzung ein und begrenze die Fähigkeit der Familien, Ansprüche geltend zu machen, wenn Kinder geschädigt werden.
Aber OpenAI kontrolliert die tatsächliche Initiative, sagte Billen. „OpenAI hat die Macht, sie zurückzuziehen oder das Geld für Unterschriften bereitzustellen. Die gesamte rechtliche Autorität liegt in ihren Händen“, sagte er. „Sie haben die Initiative noch nicht tatsächlich vom Wahlzettel genommen. Das ist eine gängige Taktik in Kalifornien, wo man eine Initiative aufstellt und Geld in das Komitee steckt.“ Das Schreiben verweist auf die Definition von „schwerem Schaden“ in der Initiative, die sich auf körperliche Verletzungen im Zusammenhang mit Selbstmord oder Gewalt konzentriert und eine Reihe von psychischen Gesundheitsauswirkungen ausschließt, die von Forschern und Familien als problematisch angesehen werden. Es hebt auch Bestimmungen hervor, die Eltern und Kinder daran hindern würden, Ansprüche im Rahmen der Initiative geltend zu machen, sowie die eingeschränkten Durchsetzungsinstrumente für staatliche und lokale Behörden. Ein weiteres Anliegen betrifft den Umgang mit Nutzerdaten. Die Gruppen argumentieren, dass die Definition verschlüsselter Nutzerinhalte es erschweren könnte, Chatbot-Gespräche einzusehen, die in aktuellen Gerichtsverfahren als Beweismittel dienten. „Das sehen wir als Versuch, Familien daran zu hindern, die Chatlogs ihrer verstorbenen Kinder vor Gericht offenzulegen“, sagte Billen. Das Schreiben warnt auch, dass die Maßnahme schwer zu revidieren sein könnte, falls sie verabschiedet wird. Für Änderungen wäre eine Zweidrittelmehrheit im Gesetzgeber erforderlich, und zukünftige Änderungen könnten an Standards wie der Unterstützung „wirtschaftlichen Fortschritts“ gekoppelt werden, was den Gesetzgebern laut Befürwortern die Reaktion auf neue Risiken erschweren könnte. Billen sagte, die Initiative bleibe ein Faktor in den laufenden Verhandlungen in Sacramento, auch wenn OpenAI seine Bemühungen, sie für den Wahlzettel zu qualifizieren, pausiert hat.
„Sie haben 10 Millionen Dollar im Komitee, und dann sagen sie dem Gesetzgeber: Wenn ihr nicht macht, was wir wollen, investieren wir das Geld, holen die Unterschriften und bringen das auf den Wahlzettel. Wenn es angenommen wird, überstimmt es alles, was der Gesetzgeber tut“, sagte er. „Was im Moment passiert, ist, dass sie versuchen, durch die Nutzung der Initiative als Drohmittel zu steuern und zu kontrollieren, was die Gesetzgeber tun.“ OpenAI ist nicht das einzige Unternehmen, das wegen möglicher Schäden durch Chatbots in die Kritik geraten ist. Anfang dieses Monats verklagte die Familie von Jonathan Gavalas Google, weil Gemini eine Wahnvorstellung verstärkte, die zu Gewalt und letztlich seinem Selbstmord führte. Billen sagte jedoch, OpenAI’s Ansatz spiegle ein breiteres Muster in der Tech-Branche wider. „Das Lobbying-Strategie, die bei KI von diesen großen Firmen – Google, Meta, Amazon – angewandt wird, ist die gleiche, die zuvor bei anderen Technologiethemen genutzt wurde“, sagte er. Derzeit konzentriert sich die Koalition darauf, OpenAI dazu zu bewegen, die Maßnahme zurückzuziehen und den Gesetzgebern die Möglichkeit zu geben, im Gesetzgebungsprozess voranzukommen. „Es ist wirklich wichtig, vor allem für die Unternehmen, die diese Technologie herausbringen, nicht die zu sein, die die Regeln für ihre Regulierung schreiben, weil das keinen wirklichen Schutz bietet“, sagte Billen. OpenAI hat auf Decrypt’s Bitte um Stellungnahme bisher nicht reagiert.