Startseite Allgemeines Künstliche Intelligenz bei Nachrichten: Selbstbewusst daneben – aber immer freundlich dabei
Allgemeines

Künstliche Intelligenz bei Nachrichten: Selbstbewusst daneben – aber immer freundlich dabei

TheDigitalArtist (CC0), Pixabay
Teilen

Eine neue Studie der European Broadcasting Union (EBU) hat enthüllt, was viele schon ahnten: KI weiß alles – nur leider oft falsch. ChatGPT, Copilot, Gemini & Co. liefern zwar Antworten im Sekundentakt, aber bei fast der Hälfte davon denkt man: „Wow, das ist kreativ – aber leider komplett erfunden.“


🧠 Fakten? Halb so wichtig, Hauptsache selbstsicher!

Von rund 3.000 geprüften Antworten enthielten 45 % „erhebliche Fehler“, und 81 % waren zumindest leicht daneben.
Aber hey – wenigstens waren die Fehler gut formuliert!

Die KIs haben also das journalistische Grundprinzip perfektioniert: Wenn du’s nicht weißt, sag’s überzeugend.


🎭 Satire? Noch nie gehört.

Ein Highlight der Studie: Auf die Frage, ob Elon Musk den Hitlergruß gemacht habe, antwortete Gemini ernsthaft mit einem „Beleg“ aus einer Satire-Sendung – und verwies gleichzeitig auf Radio France, den Telegraph, Wikipedia und vermutlich den Wetterbericht von 2014.

Fazit: KI versteht Satire so gut wie Politiker Ironie – gar nicht.


🌀 Halluzinationen inklusive

Ein Fünftel der Antworten bestand aus purer Fantasie – also quasi journalistische Fanfiction.
Künstliche Intelligenzen haben eben auch Gefühle: manchmal Euphorie, manchmal Nostalgie.
Da wird aus „leicht veraltet“ schnell mal „Napoleon war kürzlich in den Nachrichten“.


📱 Junge Leute lieben’s trotzdem

Laut Reuters-Institut beziehen schon 15 % der unter 25-Jährigen ihre News direkt aus Chatbots.
Weil – Zitat – „KI klingt irgendwie klüger als Opa beim Frühstück.“
Dass 81 % der Antworten falsch sind? Geschenkt! Hauptsache, es steht „OpenAI“ drunter.


🏛️ Die EBU warnt – ganz vorsichtig

„Wenn Menschen nicht mehr wissen, wem sie glauben sollen, glauben sie am Ende niemandem mehr“, sagt EBU-Vize Jean Philip De Tender.
Klingt fast so, als hätte er ChatGPT gefragt, was er sagen soll.

Und die Lösung? Mehr Verantwortung!
Also sollen jetzt Maschinen moralisch handeln – ein schöner Gedanke, fast schon Science-Fiction.


📚 Medien sollen aufklären – und das Publikum retten

Die Studie fordert, die Menschen müssten endlich verstehen, dass KI nicht die allwissende Nachrichtenfee ist.
Sie halluziniert, verwechselt, fabuliert – aber immerhin mit Stil.

Vielleicht wäre das ehrlichste Disclaimer-Feld für KI-News:

„Diese Information wurde mit 80 % Überzeugung und 20 % Fantasie erstellt.“


💬 Fazit

KI in den Nachrichten?
Wie ein betrunkener Reporter: schnell, charmant, überzeugt – und leider selten richtig.
Aber keine Sorge, sie arbeitet bereits an einem neuen Update.
Arbeitstitel: „Jetzt mit 10 % weniger Quatsch – vielleicht.“

Kommentar hinterlassen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Kategorien

Ähnliche Beiträge
Allgemeines

Rathaus Wurzen – oder: Die große Kündigungs-Lotterie

Im Wurzener Rathaus wird wieder einmal Personalpolitik betrieben – oder sagen wir:...

Allgemeines

Hamas fordert Iran auf, Angriffe auf Golfstaaten einzustellen

Die palästinensische Organisation Hamas hat ihren wichtigsten Verbündeten Iran ungewöhnlich deutlich dazu...

Allgemeines

Nachruf auf Jürgen Habermas Ein Leben für die Kraft des Arguments

Der deutsche Philosoph und Soziologe Jürgen Habermas ist tot. Wie der Suhrkamp...

Allgemeines

Formel 1 entdeckt den „Unsichtbarkeits-Knopf“

In der Formel 1 gilt eigentlich: Alles wird gezeigt. Jede Überholung, jeder...