Im Zuge des Kriegs zwischen den USA, Israel und Iran verbreitet sich laut Experten eine bislang beispiellose Welle KI-generierter Falschinformationen im Internet. Wie eine Analyse von BBC Verify zeigt, kursieren zahlreiche künstlich erzeugte Videos und manipulierte Satellitenbilder, die falsche oder irreführende Behauptungen über den Konflikt verbreiten. Zusammengenommen haben diese Inhalte bereits Hunderte Millionen Aufrufe erreicht.
Digitale Experten warnen, dass neue KI-Tools es deutlich einfacher machen, glaubwürdige Kriegsbilder zu erstellen. „Das Ausmaß ist wirklich alarmierend“, sagt Timothy Graham, Medienforscher an der Queensland University of Technology. Was früher professionelle Videoproduktion erforderte, könne heute mit KI innerhalb weniger Minuten erstellt werden.
Der aktuelle Konflikt begann am 28. Februar, als die USA und Israel Angriffe auf Ziele im Iran starteten. Teheran reagierte mit Drohnen- und Raketenangriffen auf Israel sowie auf mehrere Golfstaaten und US-Militäranlagen in der Region. In der schnelllebigen Situation greifen viele Menschen auf soziale Medien zurück, um Informationen zu erhalten – wodurch sich auch Falschmeldungen besonders schnell verbreiten.
Die Plattform X (ehemals Twitter) kündigte inzwischen an, Nutzer vorübergehend aus ihrem Monetarisierungsprogramm auszuschließen, wenn sie KI-generierte Kriegsbilder ohne entsprechende Kennzeichnung veröffentlichen. In dem Programm erhalten Nutzer Geld, wenn ihre Beiträge viele Aufrufe, Likes oder Kommentare erzielen.
Ein Beispiel für solche Inhalte ist ein KI-generiertes Video, das angeblich Raketenangriffe auf Tel Aviv zeigt. Der Clip wurde in mehr als 300 Beiträgen verbreitet und tausendfach geteilt. In einigen Fällen bestätigte sogar der KI-Chatbot Grok auf der Plattform fälschlicherweise die Echtheit des Videos.
Ein weiteres virales Video zeigte angeblich den Wolkenkratzer Burj Khalifa in Dubai in Flammen, während Menschen panisch davonlaufen. Das KI-generierte Material wurde millionenfach angesehen – gerade zu einem Zeitpunkt, als Bewohner und Touristen wegen tatsächlicher Raketen- und Drohnenangriffe in der Region verunsichert waren.
Experten warnen, dass solche Fälschungen das Vertrauen in echte Informationen untergraben. „Solche Videos erschweren es erheblich, reale Beweise zu dokumentieren“, sagt Mahsa Alimardani vom Oxford Internet Institute.
Neu an diesem Konflikt ist laut BBC Verify auch die zunehmende Verwendung KI-generierter Satellitenbilder. So kursierte etwa ein Bild, das angeblich massive Schäden am Hauptquartier der US-Fünften Flotte in Bahrain zeigen sollte. Tatsächlich basierte das Bild jedoch auf einem echten Satellitenfoto aus dem Jahr 2025, das mit KI verändert wurde. Mehrere Fahrzeuge standen auf beiden Bildern exakt an derselben Stelle – obwohl sie angeblich ein Jahr auseinander aufgenommen wurden.
Tools zur Erstellung solcher Inhalte werden immer zugänglicher. Neben Googles Videogenerator Veo gehören auch Modelle wie OpenAIs Sora, die chinesische App Seedance oder der in X integrierte Chatbot Grok zu den Plattformen, mit denen realistisch wirkende Videos erzeugt werden können.
Nach Einschätzung von Experten ist ein wichtiger Grund für die Flut an Fake-Inhalten auch das Geld, das mit viralen Beiträgen verdient werden kann. Laut Graham könnten Plattformen wie X etwa acht bis zwölf Dollar pro Million verifizierter Aufrufe zahlen. Wer einmal in das Monetarisierungsprogramm aufgenommen wird, kann mit stark verbreiteten KI-Inhalten beträchtliche Einnahmen erzielen.
„Virale KI-Videos sind praktisch eine Gelddruckmaschine“, sagt Graham. „Damit entsteht ein perfektes Geschäftsmodell für Desinformation.“
Gleichzeitig räumen Fachleute ein, dass es für Plattformen keine einfache Lösung gibt. Viele versuchen zwar, ihre Moderationssysteme anzupassen, doch das Grundproblem bleibt: Algorithmen belohnen Aufmerksamkeit – nicht unbedingt Wahrheit.
Kommentar hinterlassen