Nicht genug Maßnahmen gegen Deepfakes
Eine Expertenstudie der Internet-Stiftung Mozilla warnt vor erheblichen Defiziten bei heutigen Methoden zur Auszeichnung von KI-generierten Bildern, Videos und Audio-Aufnahmen. Sie seien entweder irreführend, schwer zu entdecken oder einfach zu entfernen.

Für die Nutzer sichtbare Markierungen könnten irreführend und schwer zu entdecken sein – und seien zugleich relativ einfach zu entfernen, betonte die Internet-Stiftung Mozilla in ihrem aktuellen Bericht. Technische Wasserzeichen, die automatisch in von KI erzeugte Inhalte eingebettet werden, seien zwar die robustere Lösung. Auch hier gebe es jedoch den Vorbehalt, dass diese Informationen erst von der Software auf den Geräten der Nutzer ausgelesen und für sie dargestellt werden müsse.
Böswilliger Einsatz nicht von Anfang an durchdacht
Vorschriften zur Auszeichnung von Inhalten liefen oft ins Leere, warnte Mozilla-Forscherin Ramak Molavi Vasse’i. Die sogenannten Deepfakes würden schließlich meistens extra dafür erstellt, um in die Irre zu führen. Wenn die Branche mit Selbstregulierung nicht vorankomme, müsse es mehr Druck geben. Generell sei ein Problem, dass gerade eine Technologie in Umlauf gebracht werde, bei der Maßnahmen gegen einen böswilligen Einsatz nicht von Anfang an durchdacht und eingebaut würden. Außerdem gebe es noch einen Wildwuchs aus mehreren Verfahren dafür statt eines einheitlichen Standards.
Quelle: it-zoom
Weitere News aus dieser Kategorie
10. Juni 2025
Wie viel IT-Sicherheit „Made in EU“ wird genutzt?
Laut einer aktuellen Umfrage des europäischen IT-Sicherheitsunternehmens ESET…
10. Juni 2025
Wie Deutschland zum KI-Hotspot werden kann
Der Digitalverband Bitkom legt einen 10-Punkte-Vorschlag zu Einsatz und…
10. Juni 2025
Wirtschaft sucht kaum KI-Experten
Unternehmen suchen in Deutschland kaum nach Personal mit Entwicklungs- und…