Startseite Allgemeines Künstliche Intelligenz bei Nachrichten: Selbstbewusst daneben – aber immer freundlich dabei
Allgemeines

Künstliche Intelligenz bei Nachrichten: Selbstbewusst daneben – aber immer freundlich dabei

TheDigitalArtist (CC0), Pixabay
Teilen

Eine neue Studie der European Broadcasting Union (EBU) hat enthüllt, was viele schon ahnten: KI weiß alles – nur leider oft falsch. ChatGPT, Copilot, Gemini & Co. liefern zwar Antworten im Sekundentakt, aber bei fast der Hälfte davon denkt man: „Wow, das ist kreativ – aber leider komplett erfunden.“


🧠 Fakten? Halb so wichtig, Hauptsache selbstsicher!

Von rund 3.000 geprüften Antworten enthielten 45 % „erhebliche Fehler“, und 81 % waren zumindest leicht daneben.
Aber hey – wenigstens waren die Fehler gut formuliert!

Die KIs haben also das journalistische Grundprinzip perfektioniert: Wenn du’s nicht weißt, sag’s überzeugend.


🎭 Satire? Noch nie gehört.

Ein Highlight der Studie: Auf die Frage, ob Elon Musk den Hitlergruß gemacht habe, antwortete Gemini ernsthaft mit einem „Beleg“ aus einer Satire-Sendung – und verwies gleichzeitig auf Radio France, den Telegraph, Wikipedia und vermutlich den Wetterbericht von 2014.

Fazit: KI versteht Satire so gut wie Politiker Ironie – gar nicht.


🌀 Halluzinationen inklusive

Ein Fünftel der Antworten bestand aus purer Fantasie – also quasi journalistische Fanfiction.
Künstliche Intelligenzen haben eben auch Gefühle: manchmal Euphorie, manchmal Nostalgie.
Da wird aus „leicht veraltet“ schnell mal „Napoleon war kürzlich in den Nachrichten“.


📱 Junge Leute lieben’s trotzdem

Laut Reuters-Institut beziehen schon 15 % der unter 25-Jährigen ihre News direkt aus Chatbots.
Weil – Zitat – „KI klingt irgendwie klüger als Opa beim Frühstück.“
Dass 81 % der Antworten falsch sind? Geschenkt! Hauptsache, es steht „OpenAI“ drunter.


🏛️ Die EBU warnt – ganz vorsichtig

„Wenn Menschen nicht mehr wissen, wem sie glauben sollen, glauben sie am Ende niemandem mehr“, sagt EBU-Vize Jean Philip De Tender.
Klingt fast so, als hätte er ChatGPT gefragt, was er sagen soll.

Und die Lösung? Mehr Verantwortung!
Also sollen jetzt Maschinen moralisch handeln – ein schöner Gedanke, fast schon Science-Fiction.


📚 Medien sollen aufklären – und das Publikum retten

Die Studie fordert, die Menschen müssten endlich verstehen, dass KI nicht die allwissende Nachrichtenfee ist.
Sie halluziniert, verwechselt, fabuliert – aber immerhin mit Stil.

Vielleicht wäre das ehrlichste Disclaimer-Feld für KI-News:

„Diese Information wurde mit 80 % Überzeugung und 20 % Fantasie erstellt.“


💬 Fazit

KI in den Nachrichten?
Wie ein betrunkener Reporter: schnell, charmant, überzeugt – und leider selten richtig.
Aber keine Sorge, sie arbeitet bereits an einem neuen Update.
Arbeitstitel: „Jetzt mit 10 % weniger Quatsch – vielleicht.“

Kommentar hinterlassen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Kategorien

Ähnliche Beiträge
Allgemeines

Veränderungen ab Januar 2026

Ab Januar 2026 treten in Deutschland zahlreiche gesetzliche, steuerliche und gesellschaftliche Änderungen...

Allgemeines

Trump will neuen Chef für US-Notenbank im Januar benennen

US-Präsident Donald Trump hat angekündigt, im Januar seinen Kandidaten zur Nachfolge von...

Allgemeines

Wer den Kakao rührt, darf auch mittrinken – Einladung zur außerordentlichen Hauptversammlung der fairafric AG

Sehr geehrte Aktionärinnen und Aktionäre,sehr geehrte Stimmrechtsinhaberinnen, Bananenbesitzer und Anteilssammler, es ist...

Allgemeines

RIXX Invest AG Berlin Gesellschafts- bekanntmachungen Mitteilung nach § 246 Abs. 4 Satz 1 AktG

RIXX Invest AG Berlin Mitteilung nach § 246 Abs. 4 Satz 1...