Nicht genug Maßnahmen gegen Deepfakes
Eine Expertenstudie der Internet-Stiftung Mozilla warnt vor erheblichen Defiziten bei heutigen Methoden zur Auszeichnung von KI-generierten Bildern, Videos und Audio-Aufnahmen. Sie seien entweder irreführend, schwer zu entdecken oder einfach zu entfernen.

Für die Nutzer sichtbare Markierungen könnten irreführend und schwer zu entdecken sein – und seien zugleich relativ einfach zu entfernen, betonte die Internet-Stiftung Mozilla in ihrem aktuellen Bericht. Technische Wasserzeichen, die automatisch in von KI erzeugte Inhalte eingebettet werden, seien zwar die robustere Lösung. Auch hier gebe es jedoch den Vorbehalt, dass diese Informationen erst von der Software auf den Geräten der Nutzer ausgelesen und für sie dargestellt werden müsse.
Böswilliger Einsatz nicht von Anfang an durchdacht
Vorschriften zur Auszeichnung von Inhalten liefen oft ins Leere, warnte Mozilla-Forscherin Ramak Molavi Vasse’i. Die sogenannten Deepfakes würden schließlich meistens extra dafür erstellt, um in die Irre zu führen. Wenn die Branche mit Selbstregulierung nicht vorankomme, müsse es mehr Druck geben. Generell sei ein Problem, dass gerade eine Technologie in Umlauf gebracht werde, bei der Maßnahmen gegen einen böswilligen Einsatz nicht von Anfang an durchdacht und eingebaut würden. Außerdem gebe es noch einen Wildwuchs aus mehreren Verfahren dafür statt eines einheitlichen Standards.
Quelle: it-zoom
Weitere News aus dieser Kategorie
16. Februar 2026
Führende globale Tech-Unternehmen gründen Trusted Tech Alliance
Auf der Münchner Sicherheitskonferenz haben 15 Unternehmen aus Afrika, Asien,…
9. Februar 2026
Cyberresilienz durch künstliche Intelligenz
Cyberresilienz durch die erfolgreiche Implementierung von KI-Anwendungen: eco –…
9. Februar 2026
Deutschlands erste KI-Fabrik für die Industrie
Die Deutsche Telekom hat ihre Industrial AI Cloud offiziell in Betrieb. Die…



