Digitalministerium: Absicherung von KI-Anwendungen berücksichtigen
Sven Herpig, Lead Cybersecurity Policy and Resilience bei Interface, und Paul Zenker, KPMG-Berater, warnen in einem Beitrag bei Tagesspiegel Background, die Absicherung von KI-Anwendungen zu berücksichtigen – sonst könnte aus dem neuen Digitalministerium schnell ein Ministerium für digitale Unsicherheit werden.

Mit dem Digitalministerium soll der Digitalisierung endlich der Stellenwert eingeräumt werden, den sie verdient. Das sei ausdrücklich zu begrüßen – doch ein neues Ministerium mache noch keine sichere IT-Infrastruktur, schreiben Sven Herpig, Lead Cybersecurity Policy and Resilience, Interface und Paul Zenker, Berater bei der KPMG, in einem aktuellen Beitrag auf Tagesspiegel Background.
Frühere Bundesregierungen hätten stets betont: Eine erfolgreiche Digitalisierung ist ohne IT-Sicherheit nicht möglich. In der Theorie sei Deutschland mit der ressortübergreifenden Einbindung des Bundesamts für Sicherheit in der Informationstechnik (BSI) in die zahlreichen Digitalisierungsprojekte des Bundes gut aufgestellt. In der Praxis sei es in den vergangenen Jahren jedoch immer wieder zu gravierenden Sicherheitsmängeln gekommen, etwa bei der Bund-ID, dem digitalen Führerschein oder der ID Wallet.
Neue Technologie, erweiterte Angriffsfläche
Sven Herpig und Paul Zenker weisen darauf hin, das zwei typische, aber in ihrer Wirkung problematische Reaktionen den Umgang mit Sicherheit in KI-Projekten prägen.
Erstens: Sicherheit gilt vielen als nettes Zusatzmerkmal und nicht als Notwendigkeit. Aussagen wie „Es ist ja nur ein Machbarkeitsnachweis“ (Proof of Concept, PoC) oder „Wir hosten es in einer sicheren Cloud“ führen zu einem falschen Sicherheitsgefühl. Die Folge: Sicherheitslücken werden erst entdeckt, wenn es zu spät ist – etwa durch reale Kompromittierungen oder nachträgliche Sicherheitstests. Dass Sicherheit von Beginn an ein integraler Bestandteil der Entwicklung von KI-Anwendungen sein muss, wird dann schmerzhaft klar.
Zweitens: Nicht selten herrscht die Vorstellung, Sicherheit in KI-Anwendungen lasse sich nur durch radikale Neuerfindungen und völlig neue Mechanismen erreichen. In diesem Denken gelten bewährte Prinzipien der IT-Sicherheit, wie Rechte- und Zugriffsmanagement oder Web-Security, als überholt – stattdessen fließen erhebliche Mittel in teils unausgereifte Lösungen.
Beide Ansätze führten in die Irre: Entweder entstehen Systeme mit realen Sicherheitslücken – oder Sicherheit wird zur bloßen Fassade, die Vertrauen erweckt, aber nicht trägt.
KI-Anwendungen anfällig
KI-Anwendungen seien anfällig – vergleichbar mit der Supply-Chain-Problematik in der klassischen IT, nur in größerem Maßstab. Die Experten beschreiben eine Auswahl der Probleme, die sich beim Einsatz von KI-Anwendungen stellen:
- Eingaben in natürlicher Sprache oder Bildern erschweren die Validierung, da es sich um sequentielle und unstrukturierte Daten handelt.
- Prompt-Injections: Gezielte Manipulationen über scheinbar harmlose Benutzereingaben sind reale und schwer erkennbare Bedrohungen.
- Non-Human-Identities, also Maschinenkonten, benötigen differenzierte Rechtekonzepte.
- Interne Wissensquellen werden durch KI leichter durchsuchbar – und damit potenziell zur Datenquelle für ungewollte Leaks.
- Autonomes Verhalten erschwert Logging und Auditing – die Nachvollziehbarkeit leidet.
- Hosting: Da das Betreiben von KI-Modellen ressourcenintensiv ist, wird oftmals auf Cloudanbieter zurückgegriffen. Hier müssen Datenschutzfragen, aber auch Risiken beachtet werden, die durch das Nutzen geteilter Infrastruktur entstehen.
Sicherheit weiterdenken: Neue Anforderungen
Bei KI-Anwendungen gelte es immer zu prüfen, ob ihre Eigenarten dazu führen, dass bisherige IT-Sicherheitsprozesse angepasst werden müssen.
Ein zusätzlicher Risikotreiber liege darin, dass KI-Anwendungen Hersteller zu Software-Design-Entscheidungen verleiten, die aus IT-Sicherheitsperspektive haarsträubend sind. Ein Beispiel dafür sei Blackberrys Code-Anpassung bei seiner KI-IT-Sicherheitssoftware Cylance. Weil die Firma es in der geplanten Zeit bis zur Markteinführung offenbar nicht schaffte, einen spezifischen Fehlalarm aus ihrer KI-Anwendung herauszutrainieren, entschied sie sich dafür, eine fest verdrahtete Regel (Override) einzuprogrammieren.
Quelle: Tagesspiegel Background
Weitere News aus dieser Kategorie
2. Juni 2025
Bürokratiebelastung bei Solo-Selbstständigen am höchsten
Erstmals ist im KfW-Mittelstandspanel der Zeitaufwand mittelständischer…
26. Mai 2025
Datenschutz als Wachstumskiller? Folgen der DSGVO
Wegen strenger Datenschutzvorgaben stoppen zwei Drittel aller Unternehmen…
19. Mai 2025
Wie blicken die Selbstständigen auf die Altersvorsorge-Forderungen von Bärbel Bas?
Geht es nach Arbeitsministerin Bärbel Bas, sollten auch Beamte, Abgeordnete und…