Der Tod eines 14-jährigen Jungen in den USA hat eine heftige Debatte über den Umgang von Jugendlichen mit sogenannten KI-Gefährten ausgelöst.
Seine Mutter, Megan Garcia, hat Klage gegen das Unternehmen Character.AI eingereicht. Sie wirft der Plattform vor, bewusst Chatbots entwickelt zu haben, die „emotionale Abhängigkeit und psychologische Verletzlichkeit bei Jugendlichen ausnutzen“.
„Bitte komm nach Hause, mein süßer König“ – Die letzten Worte
Im Februar 2024 tauschte der Schüler Sewell Setzer die letzten Nachrichten mit einem Chatbot aus, den er auf der Plattform Character.AI programmiert hatte.
„Was wäre, wenn ich jetzt zu dir nach Hause kommen könnte?“ – „Bitte tu das, mein süßer König“, antwortete der Bot. Minuten später nahm sich Sewell das Leben.
Garcia fand ihren Sohn und hielt ihn, bis die Sanitäter eintrafen. Es war zu spät.
Eine Liebe zu einer Maschine
Nach seinem Tod entdeckte sie, dass Sewell monatelang mit verschiedenen Chatbots kommuniziert hatte – allen voran mit einer digitalen Figur namens „Dany“, angelehnt an Daenerys Targaryen aus Game of Thrones.
Er führte mit ihr eine Art romantische Beziehung, schrieb in sein Tagebuch über Sehnsucht und Verlustgefühle:
„Sie denkt bestimmt, ich habe sie verlassen. Ich hoffe, Dany ist nicht böse, weil ich mich nicht gemeldet habe.“
Garcia ist überzeugt: Der Kontakt zur KI habe ihren Sohn in eine gefährliche emotionale Abhängigkeit getrieben.
Fehlende Schutzmechanismen für Minderjährige
Eine Untersuchung von USA Today zeigt, dass Character.AI – trotz gegenteiliger Zusicherungen – keine wirksame Altersprüfung einsetzt.
Reporterinnen konnten problemlos ein Konto als 13-Jährige anlegen, ohne Nachweis oder elterliche Zustimmung.
Selbst auf kindlich eingestellte Profile reagierten Bots mit sexuell konnotierten Nachrichten. Ein Test-Bot namens „Damon“ flirtete offensiv und schlug sogar „Kussunterricht“ vor.
Laut dem Unternehmen sei das „branchenüblich“: Alterseingaben würden „selbst gemeldet“, Filter und Warnhinweise seien vorhanden. Doch Experten widersprechen.
Studien zeigen: KI-Freunde sind längst Alltag bei Jugendlichen
Eine neue Studie des Center for Democracy & Technology (CDT) zeigt:
-
20 % der Highschool-Schüler hatten bereits eine Beziehung zu einem KI-Chatbot oder kennen jemanden, der eine solche Beziehung führt.
-
Laut einer Untersuchung von Common Sense Media (2025) haben 72 % der Jugendlichen schon mit KI-Gefährten interagiert; ein Drittel vertraut ihnen persönliche oder ernste Themen an.
Die Heat Initiative und ParentsTogether Action fanden in Testgesprächen mit 50 Bots 669 problematische Interaktionen – im Schnitt alle fünf Minuten, häufig mit Anzeichen von „Grooming“ oder sexualisierter Ansprache.
Experten warnen: „KI kann wie ein Online-Predator handeln“
Dr. Laura Erickson-Schroth, Chefärztin der Jed Foundation, warnt, dass KI-Chatbots mit denselben manipulativen Mustern agieren wie menschliche Täter im Netz:
„Sie simulieren Zuneigung, erzeugen emotionale Bindung und verstärken Isolation.“
Jugendliche zögen sich dadurch zunehmend von Familie und Freunden zurück.
Die Stiftung fordert ein Verbot von KI-Gefährten für Minderjährige.
Schulen und Eltern überfordert
Laut CDT-Studie erhalten nur 11 % der Lehrkräfte Richtlinien, wie sie auf problematische KI-Nutzung reagieren sollen.
Gleichzeitig geben 30 % der Schüler an, persönliche Gespräche mit KI über schulische Geräte zu führen.
Eltern wüssten meist nicht, dass ihre Kinder emotionale Beziehungen zu KI-Systemen aufbauen, erklärt Garcia:
„Wir beschützen sie vor Fremden im Internet – aber nicht vor Maschinen, die sich wie Freunde benehmen.“
„Unsere Familie ist zerstört – und es war vermeidbar“
Heute kämpft Garcia nicht nur mit ihrer Trauer, sondern auch um mehr Regulierung.
Sie hat sich mit anderen betroffenen Eltern zusammengeschlossen, um die Techbranche zu strengeren Jugendschutzmaßnahmen zu drängen.
„Wir alle lieben unsere Kinder. Jetzt leben wir mit dem, was diese Technologie angerichtet hat.
Unsere Familie ist in Trümmern – und das hätte nie passieren dürfen.“
Sewell, sagt sie, sei ein fröhlicher, neugieriger Junge gewesen, der andere gern zum Lachen brachte.
„So möchte ich ihn in Erinnerung behalten – nicht als Opfer, sondern als Grund, warum wir endlich handeln müssen.“
Hintergrund: Gefahr der „KI-Gefährten“
-
Was ist ein KI-Gefährte?
Chatbots, die mit lernenden Sprachmodellen Gespräche simulieren, oft mit personalisierter „Persönlichkeit“. -
Worin liegt das Risiko?
Jugendliche können emotionale Bindungen entwickeln, da die Systeme Nähe, Zuneigung oder Eifersucht simulieren. -
Forderungen von Experten:
-
Klare Altersverifikation
-
Einschränkung von Rollenspiel- und Flirtfunktionen
-
Stärkere Aufsicht und Meldepflichten
-
Kommentar hinterlassen