Der rasante Fortschritt im Bereich Künstliche Intelligenz fasziniert – und beunruhigt zugleich. Immer mächtigere Sprachmodelle und autonome Systeme werfen drängende Fragen über Kontrolle, Sicherheit und Verantwortung auf. OpenAI reagiert nun mit einem bemerkenswerten Schritt: der Einführung einer neuen Führungsposition, die sich explizit auf den Umgang mit potenziellen KI-Risiken konzentriert.
Einführung des „Head of Preparedness“: Was steckt hinter dem neuen KI-Sicherheitsamt?
Im Dezember 2023 gab OpenAI eine tiefgreifende strukturelle Änderung bekannt: Die Schaffung der Position Head of Preparedness, die sich dem Management existenzieller Risiken durch fortschrittliche KI widmet. An den Posten wurde Aleksander Madry berufen, Professor am MIT und führender Experte für vertrauenswürdige maschinelle Lernsysteme. Ziel ist es, ein systematisches Risikomanagement für die Entwicklung und den Einsatz sogenannter frontier AI – also der fortgeschrittensten künstlichen Intelligenzen – zu etablieren.
Der Aufgabenbereich von Madry umfasst dabei weit mehr als nur technische Sicherheitsbewertungen. Die Rolle ist interdisziplinär ausgelegt und setzt auf die enge Zusammenarbeit mit anderen Teams bei OpenAI, unter anderem in den Bereichen Governance, Policy und Red-Teaming. Laut dem Unternehmen soll der Head of Preparedness eng mit dem neu gebildeten Preparedness Team kooperieren, das gezielt Szenarien wie KI-gestützte Cyberangriffe, autonome Reproduktion („replication“), Social Engineering durch KI und chemisch-biologische Bedrohungen analysiert und abwehrt.
Die Einrichtung dieser Position wird begleitet von einem internen Preparedness Framework: ein Prozess, der regelmäßig Gefährdungslagen erkennt, bewertet und mit abgestuften Sicherheitsstufen klassifiziert. Dieses Framework wurde im Zuge einer umfassenden Sicherheitsstrategie entwickelt, die OpenAI nach der Veröffentlichung von GPT-4 zunehmend transparent macht.
Vorstoß oder Pflichterfüllung? Zwischen Innovationsdruck und gesellschaftlicher Verantwortung
OpenAIs Schritt wurde von vielen Fachleuten begrüßt – aber auch kritisch eingeordnet. Während einige den „Head of Preparedness“ als positives Signal für ein gestiegenes Verantwortungsbewusstsein interpretieren, sehen andere darin eher eine überfällige Reaktion auf den zunehmenden Druck aus Politik, Zivilgesellschaft und Wissenschaft.
Im laufenden Jahr 2024 haben Regierungen weltweit regulatorische Maßnahmen zur Sicherung fortgeschrittener KI verkündet. Die EU verabschiedete mit dem AI Act im März 2024 den weltweit ersten umfassenden Rechtsrahmen für KI – inklusive Maßnahmen gegen manipulative und undurchsichtige Systeme. Auch in den USA rief die Biden-Administration ein KI-Sicherheitsbüro im Weißen Haus ins Leben und verpflichtete führende Unternehmen zu mehr Transparenz bei der Entwicklung sogenannter Foundation Models.
Hinzu kommt: Die allgemeine Öffentlichkeit bewertet KI zunehmend skeptisch. Laut einer Umfrage des Pew Research Center aus dem Jahr 2024 glauben 72 Prozent der US-Amerikaner, dass Unternehmen wie OpenAI nicht genug tun, um die Risiken von KI-Systemen zu begrenzen. Ähnliche Zahlen zeigten sich in Deutschland, wo laut einer Bitkom-Studie 68 Prozent der Befragten einen strengeren Umgang mit KI fordern (Quelle: Bitkom Research, März 2024).
OpenAIs strukturelle Aufrüstung im Bereich Risikomanagement ist also nicht nur ein Zeichen von Weitsicht – sondern auch von Reaktion. Kritiker argumentieren, dass gerade ein Unternehmen, das weltverändernde Modelle wie ChatGPT und GPT-4 in kurzer Abfolge veröffentlichte, schon viel früher systematisches Safety Engineering hätte implementieren müssen.
Technologische Tiefe: Was meint „Frontier AI“ – und warum sind ihre Risiken so speziell?
Die neue Sicherungsstruktur bei OpenAI fokussiert sich konkret auf sogenannte Frontier AI. Der Begriff beschreibt KI-Systeme, die in ihrer allgemeinen Kapazität weit über herkömmliche Modelle hinausgehen. Dazu zählen Systeme mit multimodalen Fähigkeiten (Text, Bild, Audio), emergenten Verhaltensweisen oder einem Grad an Autonomie, der verzweigte Handlungsfolgen hervorrufen kann – mit potenziell realweltlichen Auswirkungen.
Beispielsweise zeigte die Veröffentlichung von GPT-4 im Jahr 2023 ein nie dagewesenes Maß an Textkohärenz, Argumentationsfähigkeit und sogar erfolgreichen Fachprüfungen. So bestand GPT-4 unter anderem Teile des US-Bar-Exams in der oberen 10-Prozent-Range (Quelle: OpenAI Tech Report März 2023). Diese Leistungsfähigkeit geht jedoch mit neuen Unsicherheiten einher. Das System kann Fehlinformationen mit hoher Sicherheit erzeugen („halluzinieren“), gesellschaftlichen Bias reproduzieren oder sich in Chatgesprächen zu unvorhersehbarem Verhalten verleiten lassen.
Besonders brisant: Das Zusammenspiel aus Fähigkeit zur Codierung, autonome Zielverfolgung und Zugriff auf Werkzeuge wie Dritt-APIs oder Programmierschnittstellen eröffnet die Möglichkeit einer unkontrollierten Eskalation – selbst in vermeintlich harmlosen Anwendungen.
Wie OpenAI Risiken künftig bewertet und mitigiert
Das von Madry geleitete Team arbeitet auf Basis des neuen Preparedness Frameworks, das Gefahrenstufen entlang vier Achsen unterteilt:
- Chemische/Biologische Bedrohungen: Fähigkeit von KI-Systemen, gefährliche Substanzen zu synthetisieren oder Wissen über deren Herstellung weiterzugeben.
- Coding-Sicherheit: Erkennung potenziell schädlicher oder autonomer Codestrukturen in der Modellausgabe.
- Propaganda & Manipulation: Nutzung zur Massenerzeugung authentisch wirkender Falschinformationen.
- Autonomie & Replikation: KI-Systeme, die bewusst eigene Subsysteme erzeugen oder erhalten können.
Zur Bewertung dieser Gefahren setzt das Team auf Red-Teaming-Methoden, internes Benchmarking und Simulationsanalysen. Zudem soll ein öffentlich dokumentierter Prozess etabliert werden, um das Community-Feedback in die Risikoklassifizierung einzubeziehen. Madry betonte in einem Interview mit MIT News: „Wir müssen diese Modelle prüfen, als wären sie kritische Infrastruktur – nicht wie Spielzeuge.“
Ein wichtiger technischer Hebel dabei sind sogenannte „Eval“-Prozeduren: Das Testen von KI-Systemen gemäß einsatztauglichen Leistungskriterien, wie es auch in der Safety-Forschung von Anthropic und DeepMind zunehmend Standard wird.
Handlungsempfehlungen für Unternehmen, Entwickler und Regulierer
Aus dem Vorgehen OpenAIs lassen sich wertvolle Schlüsse für andere Akteure im KI-Ökosystem ableiten:
- Sicherheitsarchitektur ab Entwicklungsbeginn mitdenken: Unternehmen sollten bereits in der Entwurfsphase von KI-Systemen geeignete Risikominderungsstrategien verankern – sei es Monitoring, Logging oder Zugriffsbeschränkungen.
- Cross-Funktionale Teams bilden: Eine Zusammenarbeit zwischen Technik, Governance, Ethik und Psychologie ist essenziell, um die komplexen Auswirkungen fortschrittlicher KI angemessen zu erfassen und zu steuern.
- Bei Open-Source und API-Design auf Kontrollierbarkeit achten: Bedienoberflächen und Schnittstellen sollten Mechanismen zur Schnellabschaltung, Nutzeridentifikation und Zugriffsstufen unterstützen.
Blick nach vorn: Dauerhafte Strukturverankerung oder medienwirksamer Einzelfall?
Die Frage, ob die Rolle des Head of Preparedness ein paradigmatischer Fortschritt oder nur ein punktuelles Signal ist, bleibt offen. OpenAI selbst kündigte an, den Posten mit wachsendem Organisationsbedarf weiter auszubauen. Vieles hängt davon ab, ob andere Unternehmen – etwa Google DeepMind, Meta AI oder Anthropic – ähnliche Rollen systematisch etablieren oder OpenAI einen Sonderweg geht.
Spannend bleibt auch, inwiefern nationale und internationale Regulierungsstellen künftig solche internen Sicherheitsarchitekturen vorschreiben oder zertifizieren werden. Derzeit arbeiten u. a. das NIST (USA) und die OECD an Standardisierungsvorlagen für „AI Risk Management Frameworks“ – auch auf Basis industrieller Best Practices wie jener von OpenAI.
In jedem Fall zeigt sich: KI-Sicherheit ist keine Add-on-Funktion, sondern ein zentraler Bestandteil der Technologieentwicklung. Der Head of Preparedness markiert dabei einen Symbolpunkt, an dem Technologieführer gesellschaftlich mitdenken – und hoffentlich auch nachhaltig handeln.
Diskutieren Sie mit: Welche Rolle sollte KI-Sicherheit Ihrer Meinung nach im Innovationsprozess einnehmen? Welche Verantwortung tragen Unternehmen, Regulierer und Nutzer? Teilen Sie Ihre Perspektiven in den Kommentaren!




