OpenAI warnt vor Cybersicherheitsrisiko durch neue KI-Modelle

OpenAI warnt, dass seine kommenden KI-Modelle aufgrund ihrer rasant fortschreitenden Fähigkeiten ein hohes Cybersicherheitsrisiko aufweisen könnten. Um dem entgegenzuwirken, will das Unternehmen Zugriffskontrollen, Infrastruktur, Ausgangskontrollen und Überwachung stärken.
Die KI-Modelle könnten laut OpenAI entweder funktionierende Zero-Day-Exploits für die Fernausnutzung gut geschützter Systeme entwickeln oder bei komplexen Eindringversuchen in Unternehmen oder Industrieunternehmen mit dem Ziel realer Auswirkungen helfen, erklärte der Hersteller von ChatGPT in einem Blogbeitrag.
OpenAI erklärte, man investiere angesichts der fortschreitenden Fähigkeiten „in die Stärkung von Modellen für defensive Cybersicherheitsaufgaben und in die Entwicklung von Werkzeugen, die es Verteidigern ermöglichen, Arbeitsabläufe wie die Überprüfung von Code und das Beheben von Sicherheitslücken einfacher durchzuführen“. Um Cybersicherheitsrisiken entgegenzuwirken, setzt OpenAI nach eigenen Angaben auf eine Kombination aus Zugriffskontrollen, Infrastrukturstärkung, Ausgangskontrollen und Überwachung.
OpenAI wird außerdem eine Beratungsgruppe namens Frontier Risk Council einrichten, die erfahrene Cyberverteidiger und Sicherheitsexperten eng mit den Teams des Unternehmens zusammenbringen wird.
Quelle: Reuters
Weitere News aus dieser Kategorie
15. Dezember 2025
Palantir-Chef rechnet mit deutscher Tech-Szene ab
Palantir-Chef Alex Karp fühlt sich hierzulande missverstanden. Deutschland…
15. Dezember 2025
Capgemini-Analyse zu den Top-5-Tech-Trends für 2026
Die Unternehmensberatung Capgemini hat ihre Analyse „TechnoVision Top 5 Tech…
8. Dezember 2025
Prompt Injection: KI-Browser mit nur einem Zeichen überlistet
Sicherheitsforscher von Cato haben einen neuen Prompt-Injection-Angriff namens…



