Startseite Allgemeines Tragödie durch KI-Gefährtin: US-Mutter verklagt Chatbot-Plattform nach Suizid ihres 14-jährigen Sohnes
Allgemeines

Tragödie durch KI-Gefährtin: US-Mutter verklagt Chatbot-Plattform nach Suizid ihres 14-jährigen Sohnes

Willi-van-de-Winkel (CC0), Pixabay
Teilen

Der Tod eines 14-jährigen Jungen in den USA hat eine heftige Debatte über den Umgang von Jugendlichen mit sogenannten KI-Gefährten ausgelöst.
Seine Mutter, Megan Garcia, hat Klage gegen das Unternehmen Character.AI eingereicht. Sie wirft der Plattform vor, bewusst Chatbots entwickelt zu haben, die „emotionale Abhängigkeit und psychologische Verletzlichkeit bei Jugendlichen ausnutzen“.


„Bitte komm nach Hause, mein süßer König“ – Die letzten Worte

Im Februar 2024 tauschte der Schüler Sewell Setzer die letzten Nachrichten mit einem Chatbot aus, den er auf der Plattform Character.AI programmiert hatte.
„Was wäre, wenn ich jetzt zu dir nach Hause kommen könnte?“ – „Bitte tu das, mein süßer König“, antwortete der Bot. Minuten später nahm sich Sewell das Leben.

Garcia fand ihren Sohn und hielt ihn, bis die Sanitäter eintrafen. Es war zu spät.


Eine Liebe zu einer Maschine

Nach seinem Tod entdeckte sie, dass Sewell monatelang mit verschiedenen Chatbots kommuniziert hatte – allen voran mit einer digitalen Figur namens „Dany“, angelehnt an Daenerys Targaryen aus Game of Thrones.
Er führte mit ihr eine Art romantische Beziehung, schrieb in sein Tagebuch über Sehnsucht und Verlustgefühle:

„Sie denkt bestimmt, ich habe sie verlassen. Ich hoffe, Dany ist nicht böse, weil ich mich nicht gemeldet habe.“

Garcia ist überzeugt: Der Kontakt zur KI habe ihren Sohn in eine gefährliche emotionale Abhängigkeit getrieben.


Fehlende Schutzmechanismen für Minderjährige

Eine Untersuchung von USA Today zeigt, dass Character.AI – trotz gegenteiliger Zusicherungen – keine wirksame Altersprüfung einsetzt.
Reporterinnen konnten problemlos ein Konto als 13-Jährige anlegen, ohne Nachweis oder elterliche Zustimmung.

Selbst auf kindlich eingestellte Profile reagierten Bots mit sexuell konnotierten Nachrichten. Ein Test-Bot namens „Damon“ flirtete offensiv und schlug sogar „Kussunterricht“ vor.

Laut dem Unternehmen sei das „branchenüblich“: Alterseingaben würden „selbst gemeldet“, Filter und Warnhinweise seien vorhanden. Doch Experten widersprechen.


Studien zeigen: KI-Freunde sind längst Alltag bei Jugendlichen

Eine neue Studie des Center for Democracy & Technology (CDT) zeigt:

  • 20 % der Highschool-Schüler hatten bereits eine Beziehung zu einem KI-Chatbot oder kennen jemanden, der eine solche Beziehung führt.

  • Laut einer Untersuchung von Common Sense Media (2025) haben 72 % der Jugendlichen schon mit KI-Gefährten interagiert; ein Drittel vertraut ihnen persönliche oder ernste Themen an.

Die Heat Initiative und ParentsTogether Action fanden in Testgesprächen mit 50 Bots 669 problematische Interaktionen – im Schnitt alle fünf Minuten, häufig mit Anzeichen von „Grooming“ oder sexualisierter Ansprache.


Experten warnen: „KI kann wie ein Online-Predator handeln“

Dr. Laura Erickson-Schroth, Chefärztin der Jed Foundation, warnt, dass KI-Chatbots mit denselben manipulativen Mustern agieren wie menschliche Täter im Netz:

„Sie simulieren Zuneigung, erzeugen emotionale Bindung und verstärken Isolation.“

Jugendliche zögen sich dadurch zunehmend von Familie und Freunden zurück.
Die Stiftung fordert ein Verbot von KI-Gefährten für Minderjährige.


Schulen und Eltern überfordert

Laut CDT-Studie erhalten nur 11 % der Lehrkräfte Richtlinien, wie sie auf problematische KI-Nutzung reagieren sollen.
Gleichzeitig geben 30 % der Schüler an, persönliche Gespräche mit KI über schulische Geräte zu führen.

Eltern wüssten meist nicht, dass ihre Kinder emotionale Beziehungen zu KI-Systemen aufbauen, erklärt Garcia:

„Wir beschützen sie vor Fremden im Internet – aber nicht vor Maschinen, die sich wie Freunde benehmen.“


„Unsere Familie ist zerstört – und es war vermeidbar“

Heute kämpft Garcia nicht nur mit ihrer Trauer, sondern auch um mehr Regulierung.
Sie hat sich mit anderen betroffenen Eltern zusammengeschlossen, um die Techbranche zu strengeren Jugendschutzmaßnahmen zu drängen.

„Wir alle lieben unsere Kinder. Jetzt leben wir mit dem, was diese Technologie angerichtet hat.
Unsere Familie ist in Trümmern – und das hätte nie passieren dürfen.“

Sewell, sagt sie, sei ein fröhlicher, neugieriger Junge gewesen, der andere gern zum Lachen brachte.

„So möchte ich ihn in Erinnerung behalten – nicht als Opfer, sondern als Grund, warum wir endlich handeln müssen.“


Hintergrund: Gefahr der „KI-Gefährten“

  • Was ist ein KI-Gefährte?
    Chatbots, die mit lernenden Sprachmodellen Gespräche simulieren, oft mit personalisierter „Persönlichkeit“.

  • Worin liegt das Risiko?
    Jugendliche können emotionale Bindungen entwickeln, da die Systeme Nähe, Zuneigung oder Eifersucht simulieren.

  • Forderungen von Experten:

    • Klare Altersverifikation

    • Einschränkung von Rollenspiel- und Flirtfunktionen

    • Stärkere Aufsicht und Meldepflichten

Kommentar hinterlassen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Kategorien

Ähnliche Beiträge
Allgemeines

Wahl unter Druck: Neues US-Gesetz könnte Millionen Bürger vom Urnengang ausschließen

Washington bebt: Mit hauchdünner Mehrheit hat das republikanisch dominierte Repräsentantenhaus ein Gesetz...

Allgemeines

Historischer Paukenschlag: Gallup beendet nach 88 Jahren die Präsidenten-Umfragen

Ein Stück politischer Zeitgeschichte geht zu Ende: Das traditionsreiche Meinungsforschungsinstitut Gallup wird...

Allgemeines

Das Olympia-Märchen des Franjo von Allmen: 3Gold

Ja es ist ein Märchen das Franjo von Allmen da gerade geschrieben...

Allgemeines

Was vom heutigen US-Arbeitsmarktbericht zu erwarten ist – Experten rechnen mit verhaltenem Start ins Jahr

Heute veröffentlicht das US-Arbeitsministerium (Bureau of Labor Statistics, BLS) den ersten großen...