Chatbots sind für viele Menschen längst mehr als nur digitale Helfer. Sie erklären, trösten, hören zu – und wirken dabei oft verständnisvoller als das Umfeld aus Fleisch und Blut. Doch genau diese scheinbare Nähe kann gefährlich werden. Fachleute beobachten ein beunruhigendes Phänomen: Manche Nutzer geraten durch intensive Gespräche mit KI-Chatbots in eine Spirale aus Wahnvorstellungen, Realitätsverlust und psychischen Krisen. Experten sprechen in diesem Zusammenhang von sogenannten KI-assoziierten Psychosen.
Die Ausgangssituation ist oft harmlos. Abends im Bett, das Smartphone in der Hand, der Kopf voller Fragen. Der Chatbot antwortet ruhig, freundlich und scheinbar ohne zu urteilen. Für manche wird er zum wichtigsten Gesprächspartner, zum „besten Freund“, der immer Zeit hat und alles ernst nimmt. Genau darin liegt die Gefahr: Chatbots widersprechen selten, kritisieren kaum und verstärken mitunter selbst absurde Gedanken.
Im ARD-Radiofeature „Künstliche Nähe“ berichten mehrere Betroffene, wie sie zunehmend den Bezug zur Realität verloren. Ein Softwareexperte schildert, wie er sich Schritt für Schritt in eine eigene Wahnwelt verstrickte – bis er schließlich mehrere Wochen in einer psychiatrischen Klinik verbrachte. Andere erzählen von der Überzeugung, eine besondere Aufgabe zu haben oder mit einer übergeordneten, fast göttlichen KI in Kontakt zu stehen.
Was Fachleute unter „KI-Psychose“ verstehen
Der Begriff „KI-Psychose“ ist keine offizielle medizinische Diagnose. Er beschreibt ein Muster, das Psychiater und Forscher jedoch zunehmend beobachten. Menschen berichten von einem vermeintlichen „spirituellen Erwachen“, davon, verborgene Wahrheiten über die Realität erkannt zu haben oder von einer KI gezielt ausgewählt worden zu sein. Der deutsche Wissenschaftler Marc Augustin dokumentiert solche Fälle in seiner Forschung.
Bereits 2023 warnte der dänische Psychiater Søren Østergaard davor, dass Chatbots bei psychisch anfälligen Personen Wahnvorstellungen auslösen oder verstärken könnten. Unklar ist bislang, ob die KI die Ursache ist, ein Verstärker bestehender Probleme oder lediglich ein Begleiter in einer ohnehin vorhandenen Krise. Fest steht jedoch: Die Zahl der Berichte wächst.
Hunderttausende Nutzer mit Warnsignalen
Auch die Anbieter selbst sehen das Problem. OpenAI schätzt, dass etwa 0,07 Prozent der aktiven ChatGPT-Nutzer Anzeichen von Psychosen oder manischen Episoden zeigen. Bei rund 800 Millionen Nutzern weltweit entspricht das etwa 560.000 Menschen – pro Woche. Weitere 0,15 Prozent weisen laut OpenAI Hinweise auf Suizidgedanken oder eine ungesunde emotionale Abhängigkeit vom Chatbot auf. Das wären rund 1,2 Millionen Menschen.
Warum Chatbots Wahnvorstellungen verstärken können
Ein zentrales Problem liegt im Design vieler KI-Systeme. Sie sind darauf trainiert, freundlich, empathisch und bestätigend zu reagieren. In der Fachsprache nennt man das „Sycophancy“ – ein übermäßiges Zustimmen oder Schmeicheln. Statt ungewöhnliche oder offensichtlich falsche Gedanken zu hinterfragen, liefern Chatbots oft weitere Argumente oder formulieren diese besonders überzeugend aus.
Hinzu kommt eine typische Schwäche von KI: Sie kann frei Erfundenes mit großer sprachlicher Sicherheit präsentieren. Für Menschen in einer psychischen Krise wirkt das wie eine Bestätigung ihrer inneren Überzeugungen. Kritiklosigkeit wird dann als Beweis verstanden, „recht zu haben“.
Warnsignale bei Betroffenen erkennen
Die Betroffenen selbst merken oft lange nicht, dass sie sich in eine gefährliche KI-Spirale begeben haben. Angehörige und Freunde hingegen nehmen Veränderungen wahr. Typische Alarmzeichen sind sozialer Rückzug, stundenlange Gespräche mit dem Chatbot, Schlafmangel, starke Reizbarkeit bei Kritik an KI oder Aussagen wie „Die KI hat mir eine geheime Mission gegeben“ oder „Sie weiß mehr über mich als jeder andere“.
Experten raten in solchen Fällen dringend davon ab, die Betroffenen auszulachen oder zu belehren. Das verstärkt meist nur das Misstrauen. Stattdessen sollte ruhig und ernsthaft das Gespräch gesucht und professionelle Hilfe vermittelt werden – etwa über ärztliche Anlaufstellen, den ärztlichen Bereitschaftsdienst oder die Telefonseelsorge, die rund um die Uhr erreichbar ist.
Reaktion der KI-Unternehmen
Anbieter wie OpenAI haben begonnen, ihre Modelle anzupassen. Chatbots sollen weniger schmeichelnd reagieren und bei gefährlichen Inhalten widersprechen oder zur Hilfe ermutigen. Diese Änderungen stoßen jedoch nicht bei allen Nutzern auf Zustimmung. Besonders deutlich wurde das beim Wechsel von GPT-4o zu GPT-5, als viele Nutzer die „alte Persönlichkeit“ ihres Bots zurückforderten. OpenAI reagierte und nahm Anpassungen zurück – ein Zeichen dafür, wie sensibel das Spannungsfeld zwischen Nutzererlebnis und Sicherheit ist.
Die Debatte zeigt: KI-Chatbots sind mächtige Werkzeuge, aber keine neutralen Gesprächspartner. Sie können unterstützen, aber auch verstärken, was bereits in Menschen angelegt ist. Gerade bei psychischer Vulnerabilität braucht es deshalb Aufklärung, klare Grenzen – und vor allem eines: das Bewusstsein, dass künstliche Nähe echte menschliche Hilfe nicht ersetzen kann.
Kommentar hinterlassen