Warnung vor Flickenteppich bei KI-Regeln

Bildquelle: pixabay.com

Der Vorschlag, wesentliche Hochrisiko-Anwendungen aus der KI-Verordnung herauszunehmen, führt zu mehr Bürokratie für Startups und Mittelstand und weniger Sicherheit, warnt der TÜV-Verband. Mitgliedsstaaten und EU-Kommission müssten den horizontalen Ansatz des AI Acts erhalten.

Der Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO) und der Ausschuss für bürgerliche Freiheiten, Justiz und Inneres (LIBE) des EU-Parlaments haben ihre Position zur Anpassung des EU AI Act beschlossen und dabei mehrheitlich für einen sogenannten Sektor-Exit bei der KI-Regulierung gestimmt. Zentrale Hochrisiko-Produktbereiche, z. B. Medizinprodukte, Maschinen und Spielzeuge, sollen laut Forderung der Abgeordneten aus dem unmittelbaren Anwendungsbereich der KI-Verordnung herausgelöst und KI-Anforderungen stattdessen künftig in den jeweiligen sektoralen Rechtsakten geregelt werden. Aus Sicht des TÜV-Verbands wäre dies ein folgenschwerer Kurswechsel, der den horizontalen Regulierungsansatz des AI Acts substanziell schwächt und das europäische Schutzniveau für Hochrisiko-KI gefährdet. „Der EU AI Act ist als weltweit erster umfassender Rechtsrahmen für Künstliche Intelligenz angetreten, um Innovation und Schutz zusammenzudenken“, sagt Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. „Wenn sich das Europäische Parlament in den Verhandlungen mit den Mitgliedsstaaten und der EU-Kommission durchsetzt, endet der europäische Weg bei Künstlicher Intelligenz in einer Sackgasse.“

Sektorale Verlagerung bedeutet Flickenteppich statt Klarheit

Zu Hochrisiko-KI-Systemen zählen Anwendungen, deren Fehlfunktionen oder Fehlentscheidungen erhebliche Folgen für Sicherheit, Gesundheit und Grundrechte haben können, zum Beispiel in den Bereichen Medizin, Robotik, Bewerbungsverfahren oder beim Zugang zu wichtigen Dienstleistungen wie Kreditvergaben. Bühler: „Gerade bei industriellen und verbrauchernahen Hochrisiko-KI-Systemen brauchen wir einheitliche Regeln zu Robustheit, Datenqualität, Transparenz, Risikomanagement und menschlicher Aufsicht, damit Sicherheit, Gesundheit und Grundrechte wirksam geschützt werden.“

Die vorgeschlagene sektorale Verlagerung würde den europäischen Rechtsrahmen für Hochrisiko-KI-Systeme nicht vereinfachen, sondern zersplittern. Anforderungen an Künstliche Intelligenz müssten dann in zahlreichen sektoralen Richtlinien und Verordnungen neu erarbeitet und integriert werden – mit unterschiedlichen Standards, Verfahren und Umsetzungsfristen.

Quelle und weitere Informationen zum Thema: Presseportal

Weitere News aus dieser Kategorie

Ihre AGEV – für Sie im Dialog

Arbeitgebervereinigung für Unternehmen
aus dem Bereich EDV und Kommunikationstechnologie e. V.

Bonner Talweg 55
53113 Bonn

 Tel: 0228 98375-0
 Fax: 0228 98375-19
 Nachricht schreiben