OpenAI warnt vor Cybersicherheitsrisiko durch neue KI-Modelle

OpenAI warnt, dass seine kommenden KI-Modelle aufgrund ihrer rasant fortschreitenden Fähigkeiten ein hohes Cybersicherheitsrisiko aufweisen könnten. Um dem entgegenzuwirken, will das Unternehmen Zugriffskontrollen, Infrastruktur, Ausgangskontrollen und Überwachung stärken.
Die KI-Modelle könnten laut OpenAI entweder funktionierende Zero-Day-Exploits für die Fernausnutzung gut geschützter Systeme entwickeln oder bei komplexen Eindringversuchen in Unternehmen oder Industrieunternehmen mit dem Ziel realer Auswirkungen helfen, erklärte der Hersteller von ChatGPT in einem Blogbeitrag.
OpenAI erklärte, man investiere angesichts der fortschreitenden Fähigkeiten „in die Stärkung von Modellen für defensive Cybersicherheitsaufgaben und in die Entwicklung von Werkzeugen, die es Verteidigern ermöglichen, Arbeitsabläufe wie die Überprüfung von Code und das Beheben von Sicherheitslücken einfacher durchzuführen“. Um Cybersicherheitsrisiken entgegenzuwirken, setzt OpenAI nach eigenen Angaben auf eine Kombination aus Zugriffskontrollen, Infrastrukturstärkung, Ausgangskontrollen und Überwachung.
OpenAI wird außerdem eine Beratungsgruppe namens Frontier Risk Council einrichten, die erfahrene Cyberverteidiger und Sicherheitsexperten eng mit den Teams des Unternehmens zusammenbringen wird.
Quelle: Reuters
Weitere News aus dieser Kategorie
7. April 2026
KI ersetzt Programmierjobs
Künstliche Intelligenz wird zu dramatischen Arbeitsplatzverlusten in…
7. April 2026
Vorsorge für den Ernstfall: Backup Day
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat anlässlich…
7. April 2026
Kartenzwang für Händler geplant
Bargeldlose Zahlungen sind in Deutschland nach wie vor oft nicht möglich. Dem…



