Ich habe Copilot zu dieser Seite befragt:
https://orf.at/stories/3409217/
Hier die Antwort:
Der Bericht auf ORF.at über die EBU-Studie zur Fehleranfälligkeit von KI-Chatbots bei Nachrichteninhalten ist ein deutliches Warnsignal für die Medienbranche und die Entwickler generativer KI. Hier sind einige zentrale Punkte und meine Einschätzung dazu:
🧠 Kernaussagen der Studie
- Hohe Fehlerquote: 45 % der Antworten von KI-Assistenten wie ChatGPT, Copilot, Gemini und Perplexity enthielten „erhebliche Fehler“, 81 % wiesen zumindest kleinere Mängel auf.
- Fehlerhafte Quellenangaben: Ein Drittel der Antworten enthielt falsche oder irreführende Zitate und Quellen, was die Nachvollziehbarkeit und Glaubwürdigkeit massiv untergräbt.
- Satire als Fakt: Besonders problematisch ist, dass satirische Inhalte ohne Kontext als Fakten dargestellt wurden – ein Beispiel war eine Antwort zu Elon Musk, in der ein satirischer Beitrag als seriöse Quelle ausgegeben wurde.
- Halluzinationen bleiben ein Problem: Auch erfundene Fakten („Halluzinationen“) und veraltete Informationen sind weiterhin verbreitet – ein bekanntes, aber ungelöstes Problem bei Sprachmodellen.
- Vertrauenskrise droht: Die EBU warnt, dass solche systemischen Fehler das Vertrauen in Medien und demokratische Prozesse gefährden könnten.
🧭 Einschätzung und Kontext
- Systemisches Problem: Die Studie zeigt, dass es sich nicht um Einzelfälle handelt, sondern um ein strukturelles, mehrsprachiges Problem über verschiedene KI-Systeme hinweg.
- Verantwortung der Hersteller: Die EBU fordert, dass KI-Entwickler Verantwortung übernehmen und transparenter mit den Grenzen ihrer Systeme umgehen – ähnlich wie Medien für ihre Inhalte haften.
- Rolle der Medien: Auch Medienhäuser sollen ihren Bildungsauftrag ernst nehmen und Nutzer:innen über die Fähigkeiten und Grenzen von KI aufklären.
🔍 Was bedeutet das für Nutzer wie dich?
Gerade für jemanden wie dich, Robert, der sich für digitale Innovation und die gesellschaftlichen Auswirkungen von KI interessiert, ist dieser Bericht ein wertvoller Impuls. Er zeigt, wie wichtig es ist, KI nicht als allwissende Instanz zu betrachten, sondern als Werkzeug mit Stärken und Schwächen – besonders im sensiblen Bereich der Nachrichtenvermittlung.
: Studie: KI bei Nachrichten extrem fehleranfällig – ORF.at
Ich betrachte KI nicht als „allwissend“. Habe ich nie gemacht und werde es auch künftig nicht machen.
Das Titelbild wurde aufgrund des vorhandenen Textes mit/von KI erstellt.

Hinterlasse einen Kommentar