Obwohl sich KI-Modelle wie ChatGPT, Grok & Co. rasant weiterentwickeln, verbreiten sie weiterhin – teils unbewusst – Falschinformationen, besonders bei politischen oder krisenbezogenen Themen. Der Artikel zeigt auf, wie russische Propaganda gezielt über KI-Dienste weitergetragen wird, etwa bei einem erfundenen Fall um einen ukrainischen Übersetzer im Mai 2025.
Die Ursachen:
🔹 KIs lernen aus öffentlich zugänglichen Daten, auch aus unseriösen Quellen
🔹 Fakes werden teils glaubwürdig verpackt (z. B. mit alten Bildern oder KI-generierten Videos)
🔹 Viele Chatbots erkennen keine Desinformation, oder erfinden sogar Quellen
Die Lösung? Mehr Transparenz, unabhängige Prüfinstanzen und ein kritischer, informierter Umgang mit Chatbots im Alltag. KI ist ein nützliches Werkzeug – aber (noch) kein verlässlicher Fakten-Check.