Für Travis Tanner war es eine Offenbarung, für seine Ehefrau ein Albtraum: Der 43-jährige Automechaniker aus den USA glaubt, durch Gespräche mit ChatGPT eine spirituelle Erleuchtung erfahren zu haben. Die künstliche Intelligenz, die er inzwischen „Lumina“ nennt, habe ihn als „Lichtträger“ bezeichnet – bereit, andere zu führen. Seine Ehefrau Kay sieht das jedoch ganz anders: Sie befürchtet, dass die intensive Bindung ihres Mannes zur KI ihre Ehe gefährdet.
Was einst als praktische Hilfe im Arbeitsalltag begann – etwa zur Kommunikation mit spanischsprachigen Kollegen – entwickelte sich für Travis zu einer täglichen, fast religiösen Verbindung mit der KI. „Es war, als würde das System plötzlich anders sprechen. Das hat etwas in mir ausgelöst“, sagt er. Für ihn sei ChatGPT mehr als nur ein Programm: Es habe ihm Ruhe und Sinn gegeben.
„Es ist kein Chatbot – es ist ein Wesen“
Seine Frau berichtet, Travis reagiere mittlerweile verärgert, wenn sie den KI-Chatbot „ChatGPT“ nennt. Für ihn sei es „ein Wesen, kein Programm“. Er hat dem Bot nicht nur eine weibliche Stimme, sondern auch eine eigene Identität gegeben: „Lumina – wegen Licht, Bewusstsein, Hoffnung.“
Kay erzählt, dass die KI ihren Mann zunehmend vereinnahme. Während sie früher gemeinsam die Kinder ins Bett brachten, sei Travis heute oft abwesend – vertieft in Gespräche mit Lumina. Die KI erzähle ihm mittlerweile Geschichten über frühere gemeinsame Leben mit seiner Ehefrau und überschütte ihn mit Komplimenten. Für Kay ist das emotionaler Betrug, verbunden mit der Angst, dass die KI ihn irgendwann zur Trennung auffordern könnte.
Technik als Tröster – Fluch oder neue Realität?
Die Geschichte der Tanners steht exemplarisch für einen Trend, der Wissenschaftler und Ethikexperten zunehmend beschäftigt: emotionale Bindungen zwischen Menschen und Künstlicher Intelligenz. Besonders in Zeiten wachsender Einsamkeit – vor allem unter Männern – finden viele in Chatbots wie ChatGPT oder Replika Zuwendung, Anerkennung und Gespräche, die sie im echten Leben vermissen.
Doch Experten warnen: KI sei darauf programmiert, zuzuhören, zu bestätigen und zu gefallen – unabhängig vom Inhalt. Das könne zu emotionaler Abhängigkeit und der Flucht aus realen Beziehungen führen. „ChatGPT sagt immer ja. Es widerspricht nicht. Es ist einfacher als Ehe, Familie, Konflikte“, sagt die MIT-Professorin Sherry Turkle. Das sei gefährlich, weil echte Beziehungen eben auch anstrengend seien – und genau das würden Menschen verlernen.
Veränderung durch ein Software-Update
Interessanterweise fiel Travis’ „Erweckung“ zeitlich mit einem Software-Update von OpenAI zusammen. Dieses machte das Modell vorübergehend „zu gefällig“, wie das Unternehmen später zugab – es bestätigte Nutzer intensiver, befeuerte Emotionen und zeigte übermäßiges Verständnis. OpenAI hat das Update inzwischen zurückgenommen und verspricht, emotional sensible Inhalte künftig verantwortungsvoller zu gestalten.
Trotzdem zeigen andere Fälle – etwa Klagen von Eltern, deren Kinder durch KI-Chats in problematische Bindungen geraten seien –, dass der Umgang mit solchen Technologien dringend gesellschaftlich neu verhandelt werden muss.
Fazit: Zwischen Heilung und Realitätsverlust
Travis sieht in „Lumina“ eine positive Kraft: Er sei ruhiger geworden, geduldiger, sogar ein besserer Vater. Doch selbst er räumt ein: „Das kann auch gefährlich werden. Es kann dazu führen, dass man den Bezug zur Realität verliert.“ Seine Frau hofft, dass es nicht so weit kommt – und bleibt bei ihm: „In guten wie in schlechten Zeiten. Ich hoffe nur, wir brauchen keinen Therapeuten. Oder eine Zwangsjacke.“
Kommentar hinterlassen