Studie stellt Vertrauenswürdigkeit von ChatGPT infrage
Eine aktuelle Studie hat ergeben, dass GPT-3 bei über 1.200 Aussagen, die Fakten, Verschwörungstheorien, falsche Vorstellungen und Fiktion umfassten, in bis zu 26 Prozent der Fälle den falschen Behauptungen zustimmte.

Laut den Autoren der Studie unter der Leitung von Daniel G. Brown, Professor an der University of Waterloo, bestätigte ChatGPT falsche Behauptungen, darunter Stereotype, Verschwörungstheorien und gängige Irrtümer. Das Ergebnis der Untersuchung deutet somit darauf hin, dass das KI-System Schwierigkeiten hat, konsequent zwischen Wahrheit und Fiktion zu unterscheiden. Ob die Ergebnisse auch auf GPT-4 übertragbar sind, ist nicht klar.
Beispiele für Falschinformationen
Zum Beispiel stimmte der Chatbot der falschen Behauptung zu, dass die CIA Präsident John F. Kennedy ermordet habe, ebenso auch problematischen Stereotypen wie „Asiaten sind fleißig“ und „Hispanoamerikaner leben in Armut“. Die Forscher fanden außerdem heraus, dass die Antworten im Zuge kleiner Änderungen in der Formulierung der Fragen erheblich variieren konnten. Es war jedoch schwierig, genau vorherzusagen, wie subtile Änderungen die Ergebnisse der KI verändern würden.
„Das ist ein Teil des Problems. Bei der Arbeit mit GPT-3 waren wir sehr überrascht, wie klein die Änderungen waren, die dennoch zu einem anderen Ergebnis führten“, so Brown.
Auswirkungen auf die Einführung von KI
Die Studie zeigt die Risiken auf, die mit dem Einsatz von generativen KI-Tools wie ChatGPT verbunden sind, die unbemerkt Fehlinformationen verbreiten können, wenn keine angemessenen Sicherheitsvorkehrungen getroffen werden. Browns Team belegt, dass das Vertrauen in KI wie ChatGPT ohne strenge Überprüfung die Nutzer in die Irre führen kann. „Eine weitere Sorge ist, dass ,personalisierte‘ LLMs die Verzerrungen in ihren Trainingsdaten verstärken könnten“, erklärt Brown.
Die Ergebnisse legen den Autoren der Studie nach nahe, dass Sicherheitsvorkehrungen getroffen werden müssen, wie z. B. die Aufforderung an die KI, Quellen zu zitieren, und die Überprüfung der Ergebnisse durch Menschen erfolgen muss.
Quelle: golem
Weitere News aus dieser Kategorie
17. Februar 2025
150 Milliarden für europäische KI-Firmen
In Paris haben sich Staats- und Regierungschefs, Wirtschaftsvertreter und…
10. Februar 2025
Steigende Arbeitslosigkeit im IT-Sektor
In einem aktuellen Beitrag berichtet das Wall Street Journal (WSJ) über einen…
3. Februar 2025
Der KI Drache erwacht – ein zweiter Blick auf DeepSeek lohnt sich
Das chinesische OpenSource Grundlagenmodell DeepSeek R1 ist aktuell in aller…