Künstliche Intelligenz (KI) kann lügen. So behauptete ein Chatbot jüngst, dass Baschar al-Assad noch Präsident von Syrien sei. Der Chatbot halluzinierte. Denn zu diesem Zeitpunkt war Ahmed al-Scharaa längst Chef der Übergangsregierung.
Fehler erst auf Aufforderung korrigiert
tuenews-Mitarbeiterin Oula Mahfouz wusste es richtig. Sie wies den Chatbot auf seinen Fehler hin. Doch er beharrte auf seiner Falschinformation. Erst auf ausdrückliche Aufforderung hat er seinen Fehler korrigiert und aktuelle Informationen geliefert.
Bis zu 40 Prozent sind erfunden
Dieses Beispiel ist kein Einzelfall. Das zeigt eine Studie der Europäischen Rundfunkunion (EBU). Die EBU ist ein Zusammenschluss von 68 öffentlich-rechtlichen Sendern in 56 Ländern. Sie sagt: Chatbots seien trotz Verbesserungen immer noch unzuverlässig. In ihrer Studie fand die EBU heraus: Chatbots erfinden bis zu 40 Prozent ihrer Nachrichten und geben sie als Fakten aus. Dennoch vertrauen ihnen immer mehr Menschen weltweit und glauben Fake News.
KI nutzt oft veraltete Daten
Es gibt einige Gründe für die Fehler, so die „Tagesschau“. KI nutzt veraltete Daten, mit denen sie trainiert wurde. Oder sie halluziniert und setzt vermeintlich verlässliche Wortketten zu Aussagen zusammen – selbst wenn die Fakten nicht stimmen. Manchmal erfindet sie auch Quellen, die es nicht gibt. Oder sie verknüpft Fakten, die nicht zusammengehören.
Mehr als eine Quelle nutzen
Ein Problem besonders für Ungeübte: KI nutze nicht automatisch aktuelle Informationen, so die „Tagesschau“. Das passiert nur, wenn NutzerInnen das in der Eingabe (dem „Prompt“) ausdrücklich eingeben. Fachleute raten deshalb, immer mehr als eine Quelle zu befragen. Diese Regel gilt generell – nicht nur für Chatbots.
Zur Studie der EBU: https://www.ebu.ch/Report/MIS-BBC/NI_AI_2025.pdf
Siehe: https://www.tagesschau.de/wissen/technologie/kuenstliche-intelligenz-fakten-100.html
tun25110201

