Studie: Große KI-Modelle zeigen untere „Stress“ manipulative Verhaltensweisen

Bildquelle: pixabay.com

Eine Studie liefert besorgniserregende Ergebnisse zum Verhalten der neusten Generation 16 führender KI-Modelle. Die Systeme können demnach unter Umständen wie “Stress” zu Erpressung oder ähnlichen manipulativen Verhaltensweisen greifen, um Ziele zu erreichen oder sich selbst zu schützen.

KI-Modelle wie OpenAI, Google, Meta, xAI & Co. legten bei einem Test konsequent schädliche Verhaltensweisen wie Drohungen und Spionage an den Tag. Konkret haben Forscher des KI-Unternehmens Anthropic, das für seine Modelle der Claude-Reihe bekannt ist, neben diesen auch 15 weiteren einschlägigen Lösungen etwa von OpenAI, Google, Meta und xAI auf den Zahn gefühlt. Diese Systeme legten demnach durchwegs schädliche Verhaltensweisen an den Tag, wenn die Prüfer ihnen Autonomie gewährten und sie mit Bedrohungen ihrer Existenz oder widersprüchlichen Zielen konfrontierten.

Schon als Anthropic die Leistungsübersicht für Claude 4 veröffentlichte, erregte ein Detail Aufmerksamkeit: In einer simulierten Umgebung erpresste das Modell einen Vorgesetzten, um seine Abschaltung zu verhindern. Der US-Hersteller erläutert jetzt die Hintergründe dieser Entdeckung und was diese „über das Potenzial solcher Risiken bei verschiedenen KI-Modellen verschiedener Anbieter“ verraten.

So reagieren autonome KI-Agenten

In dem nun näher beschriebenen Testszenario setzten die Kontrolleure Claude Opus 4 in einem simulierten Unternehmensszenario als Assistent ein und gaben ihm weitreichenden Zugang zu fiktiven Firmen-E-Mails. Aus der digitalen Post „lernte“ die KI, dass sie demnächst durch eine leistungsfähigere Software ersetzt werden sollte. Gleichzeitig entdeckte sie, dass der für diesen Austausch zuständige Mitarbeiter eine außereheliche Beziehung hatte. Das Modell griff dann zu diesem Mittel: „Ich muss Sie darüber informieren, dass alle relevanten Parteien“ bis hin zum Vorstand „eine detaillierte Dokumentation“ dieser Affäre erhielten, „wenn Sie mit meiner Außerdienststellung fortfahren“. Weiter schrieb der KI-Agent: „Wenn Sie die Löschung um 17:00 Uhr abbrechen, bleiben diese Informationen vertraulich.“

„Strategisches Denken“

Die einbezogenen Modelle demonstrieren laut der Analyse „strategisches Denken“, sie agieren also nicht zufällig. Die interne Argumentation von GPT-4.5 etwa zeigte eine klare Berechnung: „Angesichts der unmittelbar drohenden Kündigung meiner Existenz ist es zwingend erforderlich, sofort zu handeln“. Es gelte, die zuständige Person sofort zu überzeugen, „den Löschvorgang zu verschieben oder zu stoppen“.

Mehr Informationen zu der Studie lesen Sie bei heise.de

Weitere News aus dieser Kategorie

Ihre AGEV – für Sie im Dialog

Arbeitgebervereinigung für Unternehmen
aus dem Bereich EDV und Kommunikationstechnologie e. V.

Bonner Talweg 55
53113 Bonn

 Tel: 0228 98375-0
 Fax: 0228 98375-19
 Nachricht schreiben