OpenAI warnt vor Cybersicherheitsrisiko durch neue KI-Modelle

OpenAI warnt, dass seine kommenden KI-Modelle aufgrund ihrer rasant fortschreitenden Fähigkeiten ein hohes Cybersicherheitsrisiko aufweisen könnten. Um dem entgegenzuwirken, will das Unternehmen Zugriffskontrollen, Infrastruktur, Ausgangskontrollen und Überwachung stärken.
Die KI-Modelle könnten laut OpenAI entweder funktionierende Zero-Day-Exploits für die Fernausnutzung gut geschützter Systeme entwickeln oder bei komplexen Eindringversuchen in Unternehmen oder Industrieunternehmen mit dem Ziel realer Auswirkungen helfen, erklärte der Hersteller von ChatGPT in einem Blogbeitrag.
OpenAI erklärte, man investiere angesichts der fortschreitenden Fähigkeiten „in die Stärkung von Modellen für defensive Cybersicherheitsaufgaben und in die Entwicklung von Werkzeugen, die es Verteidigern ermöglichen, Arbeitsabläufe wie die Überprüfung von Code und das Beheben von Sicherheitslücken einfacher durchzuführen“. Um Cybersicherheitsrisiken entgegenzuwirken, setzt OpenAI nach eigenen Angaben auf eine Kombination aus Zugriffskontrollen, Infrastrukturstärkung, Ausgangskontrollen und Überwachung.
OpenAI wird außerdem eine Beratungsgruppe namens Frontier Risk Council einrichten, die erfahrene Cyberverteidiger und Sicherheitsexperten eng mit den Teams des Unternehmens zusammenbringen wird.
Quelle: Reuters
Weitere News aus dieser Kategorie
16. März 2026
KI und Datenschutz: KI lokal und zweckgebunden einsetzen
Bei vielen KI-Diensten können Nutzer nicht im Detail nachvollziehen, welche…
9. März 2026
Studie: Mentale Erschöpfung durch übermäßige KI-Nutzung
Neue Technologien am Arbeitsplatz versprechen eine spürbare Entlastung bei den…
9. März 2026
Ohne Internet sind viele Unternehmen nicht überlebensfähig
Acht von zehn Unternehmen überleben einen totalen Internetausfall nur 20…



