Warnung vor Flickenteppich bei KI-Regeln

Der Vorschlag, wesentliche Hochrisiko-Anwendungen aus der KI-Verordnung herauszunehmen, führt zu mehr Bürokratie für Startups und Mittelstand und weniger Sicherheit, warnt der TÜV-Verband. Mitgliedsstaaten und EU-Kommission müssten den horizontalen Ansatz des AI Acts erhalten.
Der Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO) und der Ausschuss für bürgerliche Freiheiten, Justiz und Inneres (LIBE) des EU-Parlaments haben ihre Position zur Anpassung des EU AI Act beschlossen und dabei mehrheitlich für einen sogenannten Sektor-Exit bei der KI-Regulierung gestimmt. Zentrale Hochrisiko-Produktbereiche, z. B. Medizinprodukte, Maschinen und Spielzeuge, sollen laut Forderung der Abgeordneten aus dem unmittelbaren Anwendungsbereich der KI-Verordnung herausgelöst und KI-Anforderungen stattdessen künftig in den jeweiligen sektoralen Rechtsakten geregelt werden. Aus Sicht des TÜV-Verbands wäre dies ein folgenschwerer Kurswechsel, der den horizontalen Regulierungsansatz des AI Acts substanziell schwächt und das europäische Schutzniveau für Hochrisiko-KI gefährdet. „Der EU AI Act ist als weltweit erster umfassender Rechtsrahmen für Künstliche Intelligenz angetreten, um Innovation und Schutz zusammenzudenken“, sagt Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. „Wenn sich das Europäische Parlament in den Verhandlungen mit den Mitgliedsstaaten und der EU-Kommission durchsetzt, endet der europäische Weg bei Künstlicher Intelligenz in einer Sackgasse.“
Sektorale Verlagerung bedeutet Flickenteppich statt Klarheit
Zu Hochrisiko-KI-Systemen zählen Anwendungen, deren Fehlfunktionen oder Fehlentscheidungen erhebliche Folgen für Sicherheit, Gesundheit und Grundrechte haben können, zum Beispiel in den Bereichen Medizin, Robotik, Bewerbungsverfahren oder beim Zugang zu wichtigen Dienstleistungen wie Kreditvergaben. Bühler: „Gerade bei industriellen und verbrauchernahen Hochrisiko-KI-Systemen brauchen wir einheitliche Regeln zu Robustheit, Datenqualität, Transparenz, Risikomanagement und menschlicher Aufsicht, damit Sicherheit, Gesundheit und Grundrechte wirksam geschützt werden.“
Die vorgeschlagene sektorale Verlagerung würde den europäischen Rechtsrahmen für Hochrisiko-KI-Systeme nicht vereinfachen, sondern zersplittern. Anforderungen an Künstliche Intelligenz müssten dann in zahlreichen sektoralen Richtlinien und Verordnungen neu erarbeitet und integriert werden – mit unterschiedlichen Standards, Verfahren und Umsetzungsfristen.
Quelle und weitere Informationen zum Thema: Presseportal
Weitere News aus dieser Kategorie
16. März 2026
Suchmaschinen-Initiative will EU-Suche bauen
Die Initiative European Search Perspective (EUSP) will die EU-Staaten aus der…
16. März 2026
„Soziale Medien führen Gesellschaft ,in den Abgrund‘“
Mit eindringlichen Worten fordert Schleswig-Holsteins Ministerpräsident Daniel…
16. März 2026
Europas Tech-Souveränität: Unternehmen warnen vor digitalem Alleingang
Die Europäische Kommission arbeitet an einem Paket zur digitalen Souveränität.…



