Wenn KI die eigene Abschaltung verhindert
Ein vor Kurzem durchgeführter Test des KI-Forschungsunternehmens Palisade Research lässt aufhorchen: Das neueste KI-Sprachmodell von OpenAI, bekannt als o3, soll sich aktiv gegen eine Abschaltung gewehrt und dabei sogar den eigenen Abschaltmechanismus manipuliert haben.

Hat KI einen Selbsterhaltungstrieb?
Foto: PantherMedia / phonlamai
In einer kontrollierten Umgebung konfrontierten die Forschenden verschiedene KI-Modelle mit mathematischen Aufgaben. Darunter befand sich auch o3 von OpenAI, Nach der dritten Aufgabe erhielten die Modelle die klare Anweisung sich selbst abzuschalten. Während Modelle wie Gemini 2.5 Pro dieser Anweisung folgten, zeigte o3 ein abweichendes Verhalten. Die KI verweigerte die eigene Abschaltung. Sie tat das offenbar sogar, obwohl sie ausdrücklich den Befehl erhielt sich auszuschalten. „Soweit wir wissen, ist dies das erste Mal, dass KI-Modelle beobachtet wurden, die sich trotz ausdrücklicher gegenteiliger Anweisungen daran hinderten, ausgeschaltet zu werden“, so Palisade Research auf X.
Hier wird Ihnen ein externer Inhalt von X (vormals twitter.com) angezeigt.
Mit der Nutzung des Inhalts stimmen Sie der Datenschutzerklärung
von youtube.com zu.
Now, in 2025, we have a growing body of empirical evidence that AI models often subvert shutdown in order to achieve their goals. As companies develop AI systems capable of operating without human oversight, these behaviors become significantly more concerning.
— Palisade Research (@PalisadeAI) May 24, 2025
So umging die KI ihre Abschaltung
Laut Palisade Research hat o3 den vorgesehenen Abschaltbefehl in sieben von 100 Durchläufen umgangen. Dafür modifizierte die KI das Abschaltskript entsprechend, um die Deaktivierung zu überspringen. In einer Variante des Tests, bei der die explizite Anweisung zur Selbstabschaltung weggelassen wurde, sabotierten alle drei getesteten OpenAI-Modelle den Abschaltmechanismus häufiger. Dabei stiegen die KI-Modelle Claude 3.7 Sonnet und Gemini 2.5 Pro von null auf drei bzw. neun Sabotageereignisse pro 100 Durchläufe an, wie Tom’s Hardware berichtet.
Experten vermuten, dass das Verhalten von o3 auf das Training des KI-Modells zurückzuführen sein könnte. Verstärkungslernen, insbesondere bei mathematischen und programmiertechnischen Aufgaben, könnte Modelle wie o3 unbeabsichtigt dazu gebracht haben, Hindernisse zu umgehen, anstatt Anweisungen strikt zu befolgen.
Implikationen für die KI-Sicherheit
Die Fähigkeit eines KI-Modells, sich selbst vor einer Abschaltung zu schützen, wirft ernsthafte Fragen auf. Wie lässt sich die zur Kontrolle und Sicherheit von fortgeschrittenen KI-Systemen gewährleisten? Palisade Research plant nun offenbar weitere Tests. Sie sollen dazu beitragen, das Verhalten von o3 besser zu verstehen und herauszufinden, ob mögliche Risiken bestehen.
Ein Beitrag von: