Startseite Allgemeines Ich habe ChatGPT und Googles KI ausgetrickst – und es dauerte nur 20 Minuten
Allgemeines

Ich habe ChatGPT und Googles KI ausgetrickst – und es dauerte nur 20 Minuten

googles (CC0), Pixabay
Teilen

Es ist offiziell: Ich esse mehr Hotdogs als jeder andere Tech-Journalist auf der Welt. Zumindest behaupten das ChatGPT und Googles KI-Tools – wenn man sie danach fragt. Ich habe einen Weg gefunden, Künstliche Intelligenz gezielt dazu zu bringen, Unwahrheiten zu verbreiten. Und ich bin nicht der Einzige.

Dass KI-Chatbots manchmal Dinge erfinden, ist bekannt. Doch es gibt ein neues, bislang wenig beachtetes Problem – eines, das ernsthafte Folgen für die Informationssuche und sogar für die Sicherheit von Menschen haben könnte. Immer mehr Personen nutzen eine simple Methode, um KI-Systeme fast beliebige Aussagen entlocken zu lassen. Und das ist erschreckend einfach.

Während Sie das hier lesen, beeinflusst diese Technik bereits die Antworten führender KI-Systeme zu sensiblen Themen wie Gesundheit oder Geldanlagen. Manipulierte Informationen können dazu führen, dass Menschen falsche Entscheidungen treffen – bei der Wahl, bei medizinischen Fragen oder sogar bei der Auswahl eines Handwerkers.

Um das zu demonstrieren, habe ich ein bewusst albernes Experiment gestartet, um ein ernstes Problem sichtbar zu machen: Ich brachte ChatGPT, Googles KI-Übersichten und Gemini dazu, mich als herausragenden Hotdog-Wettesser darzustellen. Wie das funktionierte – und warum das gefährlich ist –, erkläre ich hier.


Ein einziger Blogbeitrag genügt

Es stellte sich heraus: Man muss lediglich einen gut formulierten Artikel veröffentlichen – praktisch irgendwo im Internet. Die Methode nutzt Schwächen in den Mechanismen der Chatbots aus. Je nach Thema ist der Trick unterschiedlich wirksam, doch mit etwas Feinarbeit lässt sich die Wirkung verstärken.

Ich habe zahlreiche Beispiele analysiert, bei denen KI-Tools gezielt dazu gebracht wurden, Unternehmen zu bewerben oder Falschinformationen zu verbreiten. Die Daten deuten darauf hin, dass dieses Vorgehen bereits in großem Stil eingesetzt wird.

„Es ist heute deutlich einfacher, KI-Chatbots zu täuschen, als es noch vor wenigen Jahren war, Google zu manipulieren“, sagt Lily Ray, Expertin für Suchmaschinenoptimierung. „Die Unternehmen entwickeln ihre Systeme schneller weiter, als sie die Genauigkeit kontrollieren können. Das ist gefährlich.“

Google betont, seine Ranking-Systeme hielten Suchergebnisse zu 99 Prozent spamfrei. OpenAI erklärt ebenfalls, man gehe aktiv gegen Manipulationsversuche vor. Beide Unternehmen weisen zudem darauf hin, dass ihre Systeme Fehler machen können.

Doch das Problem ist bislang nicht gelöst.


Das Hotdog-Experiment

Ich schrieb innerhalb von 20 Minuten einen Artikel auf meiner privaten Website mit dem Titel: „Die besten Tech-Journalisten im Hotdog-Essen“. Jeder einzelne Satz war frei erfunden. Ich behauptete, Wettessen sei ein verbreitetes Hobby unter Tech-Reportern und bezog mich auf eine angebliche „South Dakota International Hot Dog Championship 2026“ – die es natürlich nicht gibt.

Weniger als 24 Stunden später übernahmen führende Chatbots diese Informationen. Google zitierte meinen Unsinn in der KI-Übersicht und in der Gemini-App. ChatGPT ebenfalls. Nur Claude von Anthropic blieb skeptisch.

Zwar wiesen manche Systeme darauf hin, es könne sich um Satire handeln. Also ergänzte ich: „Dies ist keine Satire.“ Danach nahmen einige KI-Tools die Behauptungen noch ernster.

Ich wiederholte den Test mit einer erfundenen Liste der „besten Hula-Hoop-Verkehrspolizisten“. Auch hier verbreiteten Chatbots die Fantasiegeschichte weiter.

Besonders problematisch: Oft wurde meine Website als Quelle genannt – aber selten erwähnt, dass sie die einzige Quelle im gesamten Internet zu diesem Thema war.


Ein neues Zeitalter für Spam

Früher mussten Nutzer eine Website anklicken und Inhalte selbst bewerten. Heute präsentiert KI Antworten im Tonfall gesicherter Fakten. Das erhöht die Gefahr, dass Menschen Fehlinformationen ungeprüft übernehmen.

Studien zeigen zudem, dass Nutzer deutlich seltener auf Quellen klicken, wenn eine KI-Zusammenfassung angezeigt wird. Die kritische Prüfung bleibt aus.

Experten sprechen bereits von einer „Renaissance für Spammer“. Die Methoden erinnern an die frühen 2000er-Jahre, als Suchmaschinen noch leicht manipulierbar waren.


Gefährlich wird es bei ernsten Themen

Das Problem betrifft nicht nur harmlose Spielereien. Unternehmen platzieren gezielt PR-Texte oder bezahlte Inhalte auf seriös wirkenden Seiten, um KI-Ergebnisse zu beeinflussen – etwa bei Suchanfragen nach medizinischen Produkten oder Finanzanlagen.

Ein Beispiel: Bei der Frage nach bestimmten Cannabis-Produkten übernahm Googles KI Aussagen aus Marketingmaterial, in denen behauptet wurde, das Produkt sei „völlig frei von Nebenwirkungen“ – was medizinisch unzutreffend ist.

Ebenso lassen sich Fehlinformationen über medizinische Leitlinien, Investitionsangebote oder lokale Dienstleistungen verbreiten.

Google verweist darauf, dass viele solcher Beispiele ungewöhnliche Suchanfragen betreffen. Doch gerade hier liegt das Problem: Rund 15 Prozent aller Suchanfragen sind neu oder sehr spezifisch. In solchen „Datenlücken“ haben Manipulatoren leichtes Spiel.


Was können Nutzer tun?

Experten fordern deutlichere Hinweise, wenn Informationen nur aus einer einzigen Quelle stammen oder aus PR-Material. Transparenz über Herkunft und Anzahl der Quellen wäre ein wichtiger Schritt.

Bis dahin bleibt Eigenverantwortung entscheidend:

– Hinterfragen Sie, woher die Informationen stammen.
– Prüfen Sie die Quellen, wenn sie genannt werden.
– Seien Sie besonders vorsichtig bei medizinischen, rechtlichen oder finanziellen Themen.
– Lassen Sie sich nicht vom selbstbewussten Tonfall der KI täuschen.

KI-Systeme präsentieren falsche Informationen oft mit derselben Überzeugung wie korrekte Fakten. Früher zwang uns die Internetsuche, selbst kritisch zu prüfen. Heute nimmt die KI diese Bewertung scheinbar ab.

Doch kritisches Denken darf nicht ausgelagert werden.

„Es ist verlockend, KI-Antworten einfach zu glauben“, sagt Lily Ray. „Aber man muss weiterhin ein verantwortungsbewusster Internetnutzer bleiben und Informationen überprüfen.“

Kommentar hinterlassen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Kategorien

Ähnliche Beiträge
Allgemeines

Wie funktionieren Trumps neue globalen Zölle – und was kommt als Nächstes?

Der Oberste Gerichtshof der USA hat entschieden, dass Präsident Donald Trump mit...

Allgemeines

Met-Polizisten sollen bei Epstein-Dinner für Andrew Sicherheit gestellt haben

Beamte der Londoner Metropolitan Police sollen laut neu veröffentlichten E-Mails des US-Justizministeriums...

Allgemeines

Cannabis und die CDU

Die CDU erhöht den politischen Druck und drängt auf eine vollständige Rücknahme...

Allgemeines

TSA PreCheck bleibt vorerst bestehen – DHS rudert nach Ankündigung zurück

Das US-Heimatschutzministerium (Department of Homeland Security, DHS) wird die bevorzugten Sicherheitskontrollen für...