Studie: Datenschutzrisiko im Umgang mit frei zugänglicher KI

Der Umgang mit frei zugänglichen KI-Lösungen birgt ein großes Datenschutzrisiko in deutschen Unternehmen. Dies zeigt eine Umfrage der Shamundi Consulting in Zusammenarbeit mit der International School of Management (ISM) und vier deutschen Technologieunternehmen.

Bildquelle: pixabay.com

Kishor Sridhar, ISM-Dozent für Wirtschaftspsychologie mit Schwerpunkt auf den Themen New Work und Führung, hat die aktuelle Umfrage geleitet. Dabei befragte er mit seinem Team 750 Führungskräfte in deutschen Unternehmen zu ihrer KI-Nutzung.

Das Thema Datenschutz hat in Europa einen großen Stellenwert, so der Eindruck, den man aus den politischen Entwicklungen der letzten Jahre und den daraus resultierenden Gesetzen gewinnt. Dennoch gibt es in deutschen Unternehmen ein großes Datenschutzrisiko im Umgang mit frei zugänglicher KI, so das Fazit der Studie. Und auch die Aufklärung der Mitarbeiter zu dem Thema kommt in der Wahrnehmung der Befragten bislang zu kurz.

Eine Frage an die Führungskräfte lautete: Gibt es in ihrem Unternehmen spezifische Vorgaben bzw. Restriktionen im Umgang mit internen oder kundenspezifischen Daten und der Verwendung offener KI Systeme? Fast zwei Drittel der Befragten (62 %) beantworteten dies mit „Nein“. Nur 24 % gaben an, über solche Vorgaben zu verfügen. Weitere 13 % konnten keine Angaben machen oder waren sich nicht sicher.

Mehr als die Hälfte der Befragten nutzen frei zugängliche KI-Lösungen bei der Arbeit

31 % der Studien-Teilnehmer gaben an, dass in ihrem Unternehmen interne KI-Lösungen bereits fest implementiert sind. Wesentlich verbreiteter ist aber die Arbeit mit freizugänglichen KI-Lösungen wie ChatGPT oder Claude.ai. 58 % der Befragten sagten, dass sie solche Lösungen für berufliche Zwecke nutzen. Die häufigsten Anwendungen waren das Korrekturlesen bzw. Lektorieren von Texten (68 %) und die Ideen- oder Informationsgewinnung (54 %). Immerhin mehr als ein Viertel der Befragten (26 %) nutzen diese Systeme allerdings auch für die Aufbereitung von Daten (26 %). Was bedeutet das für den Datenschutz?

Sicherheitsrisiko: Sensible, interne Daten werden weitergegeben

Auf die Frage, wie häufig sie interne Unternehmensdaten oder -informationen bzw. Kundendaten oder -informationen an frei zugängliche KI-Lösungen weitergegeben haben, gaben acht Prozent an, dies täglich zu tun. 21 % taten dies mehrmals wöchentlich und 29 % mindestens einmal im Monat. „Das stellt ein erhebliches Sicherheitsrisiko für deutsche Unternehmen dar”, betont Kishor Sridhar. Zumal nur 24 % der Befragten angaben, dass es klare Vorgaben im Umgang mit Daten bei der Verwendung von freizugänglichen KI-Lösungen gab. 23 % der Teilnehmer fühlten hinsichtlich des Datenschutzes im Umgang mit frei zugänglichen KI-Lösungen nicht ausreichend informiert.

Weitere Informationen zur Studie: kishor.sridhar@dozent.ism.de