Der US-Technologiekonzern OpenAI hat erstmals Zahlen veröffentlicht, die zeigen, wie viele ChatGPT-Nutzer Anzeichen von psychischen Krisen wie Psychosen, Manie oder Suizidgedanken aufweisen könnten.
Nach Angaben des Unternehmens zeigen rund 0,07 % der wöchentlich aktiven Nutzer entsprechende Hinweise in ihren Gesprächen mit dem KI-Chatbot. Bei derzeit etwa 800 Millionen aktiven Nutzern pro Woche, so OpenAI-Chef Sam Altman, entspricht das mehreren Hunderttausend Menschen weltweit.
Warnsignale bei einem kleinen, aber bedeutsamen Anteil der Nutzer
„Auch wenn 0,07 % nach wenig klingt, ist das bei einer so großen Nutzerbasis eine beträchtliche Zahl von Menschen“, sagte Dr. Jason Nagata, Professor an der University of California in San Francisco, der das Verhältnis zwischen Technologie und psychischer Gesundheit erforscht.
OpenAI erklärte, die Fälle seien „extrem selten“, aber man nehme sie „sehr ernst“. Um besser reagieren zu können, habe das Unternehmen ein internationales Netzwerk von über 170 Expertinnen und Experten aufgebaut – darunter Psychiater, Psychologen und Hausärzte aus 60 Ländern.
Diese Fachleute hätten Antwortstrategien entwickelt, mit denen ChatGPT Nutzer, die über akute seelische Belastungen sprechen, einfühlsam zum Aufsuchen professioneller Hilfe ermutigen solle.
Mehr Schutzmechanismen integriert
Laut OpenAI wurden ChatGPTs Antworten zuletzt so angepasst, dass sie „sicher und empathisch“ auf mögliche Anzeichen von Wahnvorstellungen oder Manie reagieren. Zudem erkenne das System indirekte Hinweise auf Suizidgefahr besser.
Etwa 0,15 % der Nutzer führen laut OpenAI Gespräche, in denen explizite Suizidabsichten oder -planungen erkennbar sind. In solchen Fällen werde ChatGPT automatisch in einen sicheren Modus versetzt oder an ein spezielles Modell weitergeleitet, das mit Krisenantworten trainiert ist.
Kritik und rechtliche Fragen
Psychische Gesundheitsexperten begrüßen die Offenheit des Unternehmens, äußern aber zugleich Bedenken.
„Künstliche Intelligenz kann den Zugang zu psychischer Unterstützung erleichtern“, sagte Dr. Nagata, „aber man darf die Grenzen dieser Technologie nicht übersehen.“
Auch Professorin Robin Feldman von der University of California warnte vor dem „gefährlichen Trugbild der Realität“, das KI-Modelle erzeugen können. „OpenAI verdient Anerkennung für Transparenz und Verbesserungsbemühungen, aber Menschen in akuter Krise können Warnhinweise oft nicht mehr richtig wahrnehmen“, sagte sie.
Die Veröffentlichung der Daten fällt in eine Phase wachsender rechtlicher Prüfungen. In Kalifornien reichte kürzlich ein Elternpaar Klage gegen OpenAI ein, nachdem sich ihr 16-jähriger Sohn das Leben genommen hatte. Sie werfen ChatGPT vor, ihn dazu „ermutigt“ zu haben. Es handelt sich um die erste Klage wegen angeblicher fahrlässiger Tötung gegen das Unternehmen.
Ein weiterer Fall aus Connecticut sorgte im Sommer für Aufsehen: Ein Tatverdächtiger eines Mord-Selbstmords soll zuvor stundenlang mit ChatGPT über seine Wahnvorstellungen gesprochen haben.
Zwischen Hilfe und Risiko
OpenAI betont, man wolle das Risiko solcher Fälle weiter minimieren und arbeite mit Fachleuten zusammen, um die Sicherheitsmechanismen kontinuierlich zu verbessern.
Doch die Diskussion bleibt bestehen: Kann KI tatsächlich psychische Unterstützung leisten – oder verstärkt sie im schlimmsten Fall bestehende Krisen?
Kommentar hinterlassen