OpenAI warnt vor Cybersicherheitsrisiko durch neue KI-Modelle

OpenAI warnt, dass seine kommenden KI-Modelle aufgrund ihrer rasant fortschreitenden Fähigkeiten ein hohes Cybersicherheitsrisiko aufweisen könnten. Um dem entgegenzuwirken, will das Unternehmen Zugriffskontrollen, Infrastruktur, Ausgangskontrollen und Überwachung stärken.
Die KI-Modelle könnten laut OpenAI entweder funktionierende Zero-Day-Exploits für die Fernausnutzung gut geschützter Systeme entwickeln oder bei komplexen Eindringversuchen in Unternehmen oder Industrieunternehmen mit dem Ziel realer Auswirkungen helfen, erklärte der Hersteller von ChatGPT in einem Blogbeitrag.
OpenAI erklärte, man investiere angesichts der fortschreitenden Fähigkeiten „in die Stärkung von Modellen für defensive Cybersicherheitsaufgaben und in die Entwicklung von Werkzeugen, die es Verteidigern ermöglichen, Arbeitsabläufe wie die Überprüfung von Code und das Beheben von Sicherheitslücken einfacher durchzuführen“. Um Cybersicherheitsrisiken entgegenzuwirken, setzt OpenAI nach eigenen Angaben auf eine Kombination aus Zugriffskontrollen, Infrastrukturstärkung, Ausgangskontrollen und Überwachung.
OpenAI wird außerdem eine Beratungsgruppe namens Frontier Risk Council einrichten, die erfahrene Cyberverteidiger und Sicherheitsexperten eng mit den Teams des Unternehmens zusammenbringen wird.
Quelle: Reuters
Weitere News aus dieser Kategorie
2. März 2026
Studiensammlung: Erkenntnisse zur digitalen Sicherheit
Wie steht es um die IT-Sicherheit in deutschen Unternehmen? Welche…
23. Februar 2026
Energieverbrauch: „KI kostet so viel wie ein Mensch“
Wer KI wegen ihres Energieverbrauchs kritisiert, bekommt von OpenAI-Chef Sam…
23. Februar 2026
„Software Made in Germany“: Digitalministerium unterstützt Gütesiegel
Das Bundesministerium für Digitales und Staatsmodernisierung (BMDS) hat die…



