Studie: Datenschutzrisiko im Umgang mit frei zugänglicher KI
Der Umgang mit frei zugänglichen KI-Lösungen birgt ein großes Datenschutzrisiko in deutschen Unternehmen. Dies zeigt eine Umfrage der Shamundi Consulting in Zusammenarbeit mit der International School of Management (ISM) und vier deutschen Technologieunternehmen.
Kishor Sridhar, ISM-Dozent für Wirtschaftspsychologie mit Schwerpunkt auf den Themen New Work und Führung, hat die aktuelle Umfrage geleitet. Dabei befragte er mit seinem Team 750 Führungskräfte in deutschen Unternehmen zu ihrer KI-Nutzung.
Das Thema Datenschutz hat in Europa einen großen Stellenwert, so der Eindruck, den man aus den politischen Entwicklungen der letzten Jahre und den daraus resultierenden Gesetzen gewinnt. Dennoch gibt es in deutschen Unternehmen ein großes Datenschutzrisiko im Umgang mit frei zugänglicher KI, so das Fazit der Studie. Und auch die Aufklärung der Mitarbeiter zu dem Thema kommt in der Wahrnehmung der Befragten bislang zu kurz.
Eine Frage an die Führungskräfte lautete: Gibt es in ihrem Unternehmen spezifische Vorgaben bzw. Restriktionen im Umgang mit internen oder kundenspezifischen Daten und der Verwendung offener KI Systeme? Fast zwei Drittel der Befragten (62 %) beantworteten dies mit „Nein“. Nur 24 % gaben an, über solche Vorgaben zu verfügen. Weitere 13 % konnten keine Angaben machen oder waren sich nicht sicher.
Mehr als die Hälfte der Befragten nutzen frei zugängliche KI-Lösungen bei der Arbeit
31 % der Studien-Teilnehmer gaben an, dass in ihrem Unternehmen interne KI-Lösungen bereits fest implementiert sind. Wesentlich verbreiteter ist aber die Arbeit mit freizugänglichen KI-Lösungen wie ChatGPT oder Claude.ai. 58 % der Befragten sagten, dass sie solche Lösungen für berufliche Zwecke nutzen. Die häufigsten Anwendungen waren das Korrekturlesen bzw. Lektorieren von Texten (68 %) und die Ideen- oder Informationsgewinnung (54 %). Immerhin mehr als ein Viertel der Befragten (26 %) nutzen diese Systeme allerdings auch für die Aufbereitung von Daten (26 %). Was bedeutet das für den Datenschutz?
Sicherheitsrisiko: Sensible, interne Daten werden weitergegeben
Auf die Frage, wie häufig sie interne Unternehmensdaten oder -informationen bzw. Kundendaten oder -informationen an frei zugängliche KI-Lösungen weitergegeben haben, gaben acht Prozent an, dies täglich zu tun. 21 % taten dies mehrmals wöchentlich und 29 % mindestens einmal im Monat. „Das stellt ein erhebliches Sicherheitsrisiko für deutsche Unternehmen dar”, betont Kishor Sridhar. Zumal nur 24 % der Befragten angaben, dass es klare Vorgaben im Umgang mit Daten bei der Verwendung von freizugänglichen KI-Lösungen gab. 23 % der Teilnehmer fühlten hinsichtlich des Datenschutzes im Umgang mit frei zugänglichen KI-Lösungen nicht ausreichend informiert.
Weitere Informationen zur Studie: kishor.sridhar@dozent.ism.de
Weitere News aus dieser Kategorie
9. Dezember 2024
Jupiter: Einer der stärksten KI-Supercomputer made in Europe
Die Entwicklung von Europas erstem Exascale-Supercomputer JUPITER schreitet…
9. Dezember 2024
Digitalbranche fordert mehr Unabhängigkeit von den USA
Deutschlands Digitalwirtschaft blickt mit Sorge auf die USA: 79 Prozent der…
2. Dezember 2024
Klagen gegen OpenAI häufen sich
Die Klagen gegen OpenAI wegen Urheberrechtsverletzungen häufen sich. Fünf…