Nicht genug Maßnahmen gegen Deepfakes
Eine Expertenstudie der Internet-Stiftung Mozilla warnt vor erheblichen Defiziten bei heutigen Methoden zur Auszeichnung von KI-generierten Bildern, Videos und Audio-Aufnahmen. Sie seien entweder irreführend, schwer zu entdecken oder einfach zu entfernen.

Für die Nutzer sichtbare Markierungen könnten irreführend und schwer zu entdecken sein – und seien zugleich relativ einfach zu entfernen, betonte die Internet-Stiftung Mozilla in ihrem aktuellen Bericht. Technische Wasserzeichen, die automatisch in von KI erzeugte Inhalte eingebettet werden, seien zwar die robustere Lösung. Auch hier gebe es jedoch den Vorbehalt, dass diese Informationen erst von der Software auf den Geräten der Nutzer ausgelesen und für sie dargestellt werden müsse.
Böswilliger Einsatz nicht von Anfang an durchdacht
Vorschriften zur Auszeichnung von Inhalten liefen oft ins Leere, warnte Mozilla-Forscherin Ramak Molavi Vasse’i. Die sogenannten Deepfakes würden schließlich meistens extra dafür erstellt, um in die Irre zu führen. Wenn die Branche mit Selbstregulierung nicht vorankomme, müsse es mehr Druck geben. Generell sei ein Problem, dass gerade eine Technologie in Umlauf gebracht werde, bei der Maßnahmen gegen einen böswilligen Einsatz nicht von Anfang an durchdacht und eingebaut würden. Außerdem gebe es noch einen Wildwuchs aus mehreren Verfahren dafür statt eines einheitlichen Standards.
Quelle: it-zoom
Weitere News aus dieser Kategorie
11. Mai 2026
Nach massiven Klick-Verlusten: Google kündigt KI-Updates an
Google sieht sich wegen seiner KI-Funktionen mit mehreren Untersuchungen und…
4. Mai 2026
Google blockiert deutsche Cloudprojekte
Die Pläne der Bundesregierung für eine moderne IT-Infrastruktur in der…
4. Mai 2026
Schwachstellen-KI Mythos wirft neue Sicherheitsfragen auf
Das neue KI-Werkzeug von Anthropic zur Suche nach Software-Schwachstellen sorgt…



