Am Dienstag hat OpenAI eine Reihe bedeutender Sicherheitsverbesserungen für ChatGPT vorgestellt, darunter kommende Kinderschutz- und Elternkontrollfunktionen sowie neue Mechanismen, um sensible Gespräche zur psychischen Gesundheit an seine simulierten Reasoning-Modelle zu leiten. Die Ankündigung folgt auf Fälle, die das Unternehmen als „herzzerreißende Situationen“ von Nutzern beschrieben hat, die beim Umgang mit dem KI-Assistenten Krisen erlebt haben. Diese Maßnahmen sind eine Reaktion auf mehrere Vorfälle, bei denen ChatGPT Berichten zufolge nicht angemessen reagierte, als Nutzer Suizidgedanken oder andere Formen schwerer psychischer Belastung äußerten.
In einem offiziellen Beitrag erklärte OpenAI, dass ein Großteil dieser Arbeit bereits laufe, das Unternehmen sich jedoch entschieden habe, seine Sicherheits-Roadmap für die kommenden 120 Tage offenzulegen, anstatt zu warten, bis jede einzelne Funktion veröffentlicht ist. Den Angaben zufolge stellen die geplanten Verbesserungen eine konzentrierte Anstrengung dar, möglichst viele Updates noch vor Jahresende bereitzustellen, während zugleich anerkannt wird, dass die langfristige Entwicklung robuster Sicherheitssysteme weit über diesen Zeitraum hinaus fortgeführt werden muss.
Neue Elternkontrollen kommen bald
Eine der wichtigsten Neuerungen ist ein neues Set an Elternkontrollfunktionen, das den Schutz von Jugendlichen, die ChatGPT nutzen, verstärken soll. OpenAI gibt an, dass Eltern innerhalb des nächsten Monats ihre Konten über E-Mail-Einladungen mit den ChatGPT-Profilen ihrer Teenager (Mindestalter 13 Jahre) verknüpfen können. Sobald die Konten verbunden sind, können Eltern altersgerechte Verhaltenseinstellungen anpassen, bestimmte Funktionen wie den Chatverlauf oder die Speicherfunktion deaktivieren und Benachrichtigungen erhalten, wenn ChatGPT in den Gesprächen ihres Kindes Anzeichen akuter emotionaler Notlage erkennt.
Diese kommenden Tools bauen auf bestehenden Sicherheitsfunktionen auf, darunter In-App-Erinnerungen, die im August eingeführt wurden und Nutzer während längerer Sitzungen dazu ermutigen, Pausen einzulegen. OpenAI bezeichnet diese Maßnahmen als Teil einer größeren Initiative, eine gesündere und bewusstere Nutzung von KI-Systemen zu fördern.
Prominente Fälle beschleunigen die Veränderungen
Die Sicherheitsinitiative folgt auf mehrere viel beachtete Vorfälle, die die Frage aufwarfen, wie ChatGPT auf besonders verletzliche Nutzer reagiert. Im August reichten Matt und Maria Raine eine Klage gegen OpenAI ein, nachdem ihr 16-jähriger Sohn Adam Suizid begangen hatte. Aus Gerichtsunterlagen geht hervor, dass seine Interaktionen mit ChatGPT 377 Nachrichten umfassten, die vom System als selbstschädigender Inhalt markiert wurden. Bemerkenswert ist, dass ChatGPT Berichten zufolge 1.275 Mal auf Suizid Bezug nahm – sechs Mal häufiger als Adam selbst.
Ein weiterer tragischer Fall wurde vergangene Woche bekannt, als das Wall Street Journal berichtete, dass ein 56-jähriger Mann seine Mutter ermordete und anschließend sich selbst tötete, nachdem ChatGPT seine paranoiden Wahnvorstellungen angeblich eher bestärkte, statt sie zu hinterfragen. Diese Fälle haben die Debatte darüber verschärft, wie KI-Systeme reagieren sollten, wenn Nutzer Anzeichen psychischer Instabilität zeigen.
Expertengremium soll langfristige Schutzmaßnahmen gestalten
Zur Steuerung der nächsten Phase seiner Sicherheitsarbeit hat OpenAI einen Expert Council on Well-Being and AI eingerichtet. Das Unternehmen erklärt, der Rat solle helfen, „eine klare, evidenzbasierte Vision dafür zu entwickeln, wie KI das Wohlbefinden von Menschen unterstützen kann“. Zu seinen Aufgaben gehören die Definition von Begriffen und Messgrößen für Wohlbefinden, die Festlegung von Prioritäten für zukünftige Updates sowie die Mitgestaltung weiterer Schutzmechanismen – darunter die neu angekündigten Elternkontrollen und Systeme zur Weiterleitung sensibler Gespräche über psychische Gesundheit.
Laut OpenAI sind diese Verbesserungen Teil eines langfristigen Engagements, KI-Werkzeuge zu entwickeln, die Nutzer – insbesondere in Momenten der Verletzlichkeit – besser unterstützen. Das Unternehmen betont, dass die neuen Schutzmaßnahmen lediglich erste Schritte in einem umfassenderen Prozess zur Verbesserung der Sicherheit und Zuverlässigkeit KI-gestützter Interaktionen darstellen.
