Nach einem der tödlichsten Schulmassaker in der Geschichte Kanadas hat die Familie eines schwer verletzten Mädchens Klage gegen das KI-Unternehmen OpenAI, den Entwickler von ChatGPT, eingereicht. Der Vorwurf lautet, dass das Unternehmen Hinweise auf die geplante Tat erkannt, jedoch nicht an die Behörden weitergegeben habe.
Die zwölfjährige Maya Gebala wurde bei dem Angriff am 10. Februar in Tumbler Ridge mehrfach angeschossen, unter anderem am Kopf und am Hals, und befindet sich weiterhin im Krankenhaus.
Bei dem Angriff wurden acht Menschen getötet, darunter fünf Kinder sowie die Mutter der mutmaßlichen Täterin.
ChatGPT-Konto bereits vorher gesperrt
Die mutmaßliche Schützin, die damals 18-jährige Jesse Van Rootselaar, hatte laut Klage bereits im Frühsommer 2025 über ChatGPT Szenarien mit Waffengewalt und möglichen Angriffen diskutiert.
Ein erstes Konto der Verdächtigen wurde im Juni 2025 von OpenAI gesperrt, nachdem Mitarbeiter die Inhalte als problematisch eingestuft hatten. Die Polizei wurde jedoch nicht informiert.
Laut der Klage hatten zwölf Mitarbeiter von OpenAI die Gespräche überprüft und intern darauf hingewiesen, dass sie auf ein mögliches ernsthaftes Risiko für andere Menschen hindeuten könnten. Demnach wurde vorgeschlagen, die kanadischen Behörden einzuschalten.
Dieser Vorschlag sei jedoch abgelehnt worden. Stattdessen sei lediglich das Benutzerkonto gesperrt worden.
Neues Konto trotz Sperre
Nach Angaben der Kläger konnte die Verdächtige später ein neues ChatGPT-Konto eröffnen und dort weiterhin Szenarien mit Gewalt und Waffen besprechen.
Die Familie wirft OpenAI deshalb vor, konkrete Hinweise auf die langfristige Planung eines Massakers gehabt zu haben, ohne angemessen darauf zu reagieren.
Maya Gebala erlitt laut Klage eine schwere, dauerhafte Hirnverletzung, nachdem sie versucht hatte, die Tür einer Schulbibliothek zu verriegeln, um andere Kinder vor der Angreiferin zu schützen.
Stellungnahme von OpenAI
OpenAI bezeichnete die Ereignisse als „unsagbare Tragödie“ und erklärte, man denke weiterhin an die Opfer, ihre Familien und die betroffene Gemeinde.
Das Unternehmen kündigte an, künftig enger mit Behörden zusammenzuarbeiten und seine Sicherheitsmechanismen zu verbessern.
Neue Sicherheitsregeln angekündigt
Anfang März traf sich OpenAI-Chef Sam Altman virtuell mit Kanadas KI-Minister Evan Solomon und dem Premierminister der Provinz British Columbia, David Eby.
Dabei versprach Altman laut Medienberichten, die Meldeverfahren bei möglichen Gewaltandrohungen zu verschärfen und sich bei der Gemeinde von Tumbler Ridge zu entschuldigen.
OpenAI erklärte außerdem, in den vergangenen Monaten bereits Änderungen umgesetzt zu haben, darunter:
-
stärkere Einbindung von Psychologen und Verhaltensforschern,
-
flexiblere Kriterien, wann Fälle an die Polizei gemeldet werden,
-
bessere Systeme, um Umgehungsversuche gesperrter Nutzer zu erkennen.
Nach Angaben des Unternehmens hätte der Fall unter den neuen Regeln an die Behörden gemeldet werden müssen.
Kanadas KI-Minister Solomon erklärte jedoch, die Regierung habe zwar eine Bereitschaft zur Verbesserung gesehen, warte aber noch auf einen konkreten Plan, wie diese Maßnahmen praktisch umgesetzt werden sollen.
Kommentar hinterlassen