ChatGPT & Co: Tipps für den Faktencheck

Einer aktuellen Umfrage des TÜV-Verbands zufolge, findet jeder Dritte Fehler bei der Nutzung generativer KI. Ein kritischer Umgang sei daher notwendig. Der TÜV gibt Hinweise für den Faktencheck, um die Richtigkeit der Ergebnisse zu überprüfen.

Bildquelle: pixabay.com

Generative Künstliche Intelligenz (KI) wie ChatGPT, Claude, LeChat oder DeepSeek wird immer häufiger genutzt, doch viele Anwender stehen den Ergebnissen kritisch gegenüber. Zwar geben drei von vier (75 Prozent) Nutzern an, mit den Ergebnissen zufrieden zu sein, jedoch überprüfen knapp vier von fünf (78 Prozent) die KI-Inhalte durch eigene Recherchen. Des Weiteren empfindet fast jeder Zweite (48 Prozent) die KI-Antworten als oberflächlich und 43 Prozent kritisieren mangelnde Konkretheit. Jeder dritte KI-Nutzer (31 Prozent) gibt an, dass die Anwendungen häufig fehlerhafte oder falsche Informationen liefern.

Tipps für den Faktencheck:

  • Quellen prüfen: Inhalte mit verlässlichen Nachrichtenportalen, wissenschaftlichen Publikationen oder offiziellen Dokumenten abgleichen. Denn KI-Chatbots durchsuchen je nach Anbieter und Modell teils keine externen Quellen in Echtzeit, sie verarbeitet bestehende Daten aus ihrem Training oder vordefinierten Datenquellen.
  • Faktencheck nutzen: Spezialisierte Websites wie FactCheck.org oder Snopes zur Überprüfung heranziehen. Auch eine herkömmliche Internetsuche kann helfen, Falschinformationen aufzudecken und Fakten zu verifizieren.
  • Quellen vergleichen: Informationen aus unabhängigen Quellen gegeneinander abwägen, bei Unsicherheiten Experten befragen. Ein breiter Quellensatz verringert das Risiko einseitiger oder verzerrter Darstellungen.
  • Aktualität sicherstellen: Veröffentlichungsdatum und Relevanz der Informationen überprüfen. Veraltete Daten können zu falschen Schlussfolgerungen führen.
  • Logik und Konsistenz prüfen: Widersprüche oder nicht plausible Aussagen erkennen. Fehlerhafte oder unschlüssige Inhalte deuten darauf hin, dass eine Information nicht zuverlässig ist.
  • Bias hinterfragen: Entstehung, Perspektiven und mögliche Verzerrungen der KI-generierten Inhalte bedenken. KI-Chatbots spiegeln oft vorhandene Vorurteile aus Trainingsdaten wider.

Weitere Ergebnisse der KI-Studie finden Sie hier.