OpenAI fürchtet sich vor KI-Biowaffen
Könnten Menschen mithilfe von KI schnell neue Biowaffen erstellen? Die steigende Leistung der Technik erhöht das Potenzial für gefährliche Nutzungsszenarien. Das Forschungsteam des ChatGPT-Anbieters OpenAI versucht das herauszufinden und sucht nach Wegen, das zu verhindern.

OpenAI versucht mithilfe neuer selbstgesetzter Regeln die Sicherheit seiner KI-Systeme zu verbessern. Konkret untersucht haben die Forscher das nun für Biowaffen. Denn mit der steigenden Leistung der Technik erhöhe sich nicht nur das Potenzial für sinnvolle, sondern auch für gefährliche Nutzungsszenarien der Technik. Als eine dieser möglichen Gefahren benannten die Forscher, aber auch bereits die US-Regierung in der Vergangenheit, die Erstellung von Biowaffen.
Das wohl größte Problem aktueller KI-Technik und insbesondere der derzeit vorherrschenden großen Sprachmodelle (LLMs) ist, dass die Ersteller deren Funktionsweise prinzipbedingt nicht vollständig erklären können. Hinzu kommt, dass die sogenannten Halluzinationen, also das Erfinden von Falschinformationen, zwar zu Problemen führen können, prinzipiell aber erwünscht sind, da nur so eine vermeintliche Kreativität der Modelle erreicht werden kann.
Viel Forschungsarbeit nötig
Wichtigster Teil der vorgestellten Forschungsarbeit von OpenAI ist eine neue Bewertungstechnik, „die als ein möglicher Stolperdraht dient, der die Notwendigkeit von Vorsicht und weiteren Tests des biologischen Missbrauchspotenzials signalisiert.“ Ziel ist es dabei herauszufinden, ob die Modelle besser darin sind, Informationen zum Erschaffen von Biowaffen bereitzustellen, als dies bereits über Informationen im Internet möglich ist. In der Untersuchung kommen die Forscher letztlich zu dem Schluss, dass die Modelle von OpenAI derzeit zwar etwas besser sind im Bau von Biowaffen, als dies nur über Informationen aus dem Internet möglich wäre. Der Unterschied sei aber nicht signifikant, schreibt das Team. Es müsse hier mehr Forschungsarbeit geleistet werden, um die Möglichkeiten besser beurteilen zu können. Darüber hinaus stellt OpenAI fest, dass die Forscher selbst nicht einschätzen könnten, welchen Erfolg eine Konstruktion der KI-Biowaffen in der physischen Welt hätte.
Quelle: Golem
Weitere News aus dieser Kategorie
16. Juni 2025
20.000 Domains und IP-Adressen im Visier von Interpol
Strafverfolgern aus 26 Ländern ist ein großer Schlag gegen Cybercrime gelungen.…
16. Juni 2025
KI-Entwicklung: Bald Singularität erreicht?
Sam Altman, CEO von OpenAI, weist in einem Blogbeitrag darauf hin, dass die…
16. Juni 2025
Kaum KI-Jobs am deutschen Arbeitsmarkt
KI revolutioniert den Arbeitsmarkt. In diesem Punkt herrscht Einigkeit. Dennoch…