Warnung vor Flickenteppich bei KI-Regeln

Der Vorschlag, wesentliche Hochrisiko-Anwendungen aus der KI-Verordnung herauszunehmen, führt zu mehr Bürokratie für Startups und Mittelstand und weniger Sicherheit, warnt der TÜV-Verband. Mitgliedsstaaten und EU-Kommission müssten den horizontalen Ansatz des AI Acts erhalten.
Der Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO) und der Ausschuss für bürgerliche Freiheiten, Justiz und Inneres (LIBE) des EU-Parlaments haben ihre Position zur Anpassung des EU AI Act beschlossen und dabei mehrheitlich für einen sogenannten Sektor-Exit bei der KI-Regulierung gestimmt. Zentrale Hochrisiko-Produktbereiche, z. B. Medizinprodukte, Maschinen und Spielzeuge, sollen laut Forderung der Abgeordneten aus dem unmittelbaren Anwendungsbereich der KI-Verordnung herausgelöst und KI-Anforderungen stattdessen künftig in den jeweiligen sektoralen Rechtsakten geregelt werden. Aus Sicht des TÜV-Verbands wäre dies ein folgenschwerer Kurswechsel, der den horizontalen Regulierungsansatz des AI Acts substanziell schwächt und das europäische Schutzniveau für Hochrisiko-KI gefährdet. „Der EU AI Act ist als weltweit erster umfassender Rechtsrahmen für Künstliche Intelligenz angetreten, um Innovation und Schutz zusammenzudenken“, sagt Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. „Wenn sich das Europäische Parlament in den Verhandlungen mit den Mitgliedsstaaten und der EU-Kommission durchsetzt, endet der europäische Weg bei Künstlicher Intelligenz in einer Sackgasse.“
Sektorale Verlagerung bedeutet Flickenteppich statt Klarheit
Zu Hochrisiko-KI-Systemen zählen Anwendungen, deren Fehlfunktionen oder Fehlentscheidungen erhebliche Folgen für Sicherheit, Gesundheit und Grundrechte haben können, zum Beispiel in den Bereichen Medizin, Robotik, Bewerbungsverfahren oder beim Zugang zu wichtigen Dienstleistungen wie Kreditvergaben. Bühler: „Gerade bei industriellen und verbrauchernahen Hochrisiko-KI-Systemen brauchen wir einheitliche Regeln zu Robustheit, Datenqualität, Transparenz, Risikomanagement und menschlicher Aufsicht, damit Sicherheit, Gesundheit und Grundrechte wirksam geschützt werden.“
Die vorgeschlagene sektorale Verlagerung würde den europäischen Rechtsrahmen für Hochrisiko-KI-Systeme nicht vereinfachen, sondern zersplittern. Anforderungen an Künstliche Intelligenz müssten dann in zahlreichen sektoralen Richtlinien und Verordnungen neu erarbeitet und integriert werden – mit unterschiedlichen Standards, Verfahren und Umsetzungsfristen.
Quelle und weitere Informationen zum Thema: Presseportal
Weitere News aus dieser Kategorie
20. April 2026
EU will ChatGPT strenger regulieren
Die Suchfunktion von ChatGPT hat in der EU die Einordnung „sehr große Plattform…
13. April 2026
EUDI-Wallet: Digitale Brieftasche in der EU noch weitgehend unbekannt
Mit der EUDI-Wallet bekommen Anfang nächsten Jahres alle Bundesbürger eine…
23. März 2026
Die neue „EU Inc.“: Europa will beim Gründen aufholen
Europa will eine einheitliche, EU-weite Rechtsform für Unternehmen etablieren,…



