Künstliche Intelligenz gilt oft als überlegen: fehlerfrei, unermüdlich, emotionslos. Doch aktuelle Forschung zeigt ein unerwartetes Phänomen – unter Stressbedingungen versagen viele KI-Systeme ähnlich wie Menschen. Was bedeutet das für sicherheitskritische Anwendungen? Und wie kann die Belastbarkeit künstlicher Intelligenz verbessert werden?
Wenn Algorithmen schwitzen: Eine neue Perspektive auf KI-Zuverlässigkeit
Die Vorstellung, dass Künstliche Intelligenz (KI) rational und emotionsfrei agiert, ist tief in unserer Tech-Kultur verankert. Doch eine im Oktober 2023 veröffentlichte Studie von Forschenden der ETH Zürich und der Universität Stanford stellt dieses Bild infrage. Ihre Untersuchungen zeigen: KI-Agenten – darunter auch fortgeschrittene Modelle wie solche auf GPT-Basis – treffen unter „Stressbedingungen“ vermehrt falsche Entscheidungen, zeigen Flüchtigkeitsfehler und priorisieren Aufgaben ineffizient.
Stress bei KIs – was zunächst metaphorisch klingt, ist tatsächlich durch spezifische Testszenarien belegt. Die Forscher simulierten eine Vielzahl komplexer, hochgetakteter Umgebungen, die Zeitdruck, Informationsüberflutung und widersprüchliche Zielsetzungen beinhalteten. Die getesteten Agenten schnitten insbesondere dann schlecht ab, wenn sie mehrere konkurrierende Aufgaben zugleich bearbeiten und dabei zwischen Prioritäten wechseln mussten. „Diese KI-Systeme entwickeln unter Druck nicht nur ineffiziente Lösungsstrategien – sie brechen bisweilen regelrecht kognitiv zusammen“, fasst Mitautor Prof. David Kaner von der ETH Zürich zusammen.
Das alarmiert insbesondere mit Blick auf kritische Systeme: etwa autonome Fahrsoftware, KI-unterstützte medizinische Diagnoseverfahren oder automatisierte Reaktionssysteme in der Finanzwelt. In all diesen Bereichen sind Entscheidungen unter Unsicherheit – oft in Echtzeit – unvermeidlich.
Was passiert im „Gehirn“ der KI unter Druck?
Der Begriff „Stress“ ist bei Maschinen zunächst ungewöhnlich. Doch verhaltensanalytisch lässt sich die Reaktion von KI-Agenten in solchen Situationen vergleichen mit dem, was auch Menschen in Hochdrucksituationen erleben: selektive Wahrnehmung, erhöhter Fokus auf irrelevante Stimuli, verringerte Fehlerkorrektur. Die Wissenschaftler führten Tests durch, bei denen große Sprachmodelle (wie GPT und BERT-Derivate) multiple Aufgaben simultan erledigen und Entscheidungen in Sekundenschnelle treffen mussten. Unter diesen Bedingungen stiegen Fehlerraten um durchschnittlich 23 % – in Einzelfällen sogar bis zu 47 %.
Eine der Ursachen: das „Overfitting“ auf Trainingsdaten, das Algorithmen auf klar strukturierte, idealisierte Inputmuster vorbereitet. In der realen Welt jedoch sind Inputs häufig inkonsistent, verrauscht oder unvollständig – stressähnliche Bedingungen, mit denen viele Systeme nur begrenzt umgehen können.
Hinzu kommt: Selbstlernende Systeme, insbesondere solche basierend auf Reinforcement Learning, entwickeln oft kurzfristig optimierte Strategien für spezifische Inputmuster. Realitätsnahe Stressbedingungen bringen diese Strategien schnell an ihre Grenzen, wie z. B. ein Experiment mit einem autonomen Drohnen-KI-System zeigte. Während der Simulation eines Notfallmechanismus mit konkurrierenden Zielvorgaben kollidierte die Drohne infolge einer fehlerhaften Priorisierung der Flugziele – ein schwerer systemischer Fehler.
KI unter Druck: Auswirkungen auf sicherheitskritische Anwendungen
Die Studie hat tiefgreifende Implikationen für Branchen, in denen Zuverlässigkeit, Sicherheit und Robustheit unter Zeitdruck essenziell sind:
- Verkehr: Autonome Fahrzeuge reagieren unter plötzlichem Stress – etwa bei Gefahrerkennung im Straßenverkehr – teils mit inadäquaten Richtungsentscheidungen oder unvorhersehbarem Verhalten. Eine Auswertung des Insurance Institute for Highway Safety (2024) ergab, dass 62 % der Sicherheitsvorfälle im Testbetrieb autonomer Systeme auf nicht antizipierte Umweltfaktoren zurückgehen.
- Gesundheitswesen: KI-gestützte Bilddiagnostik oder Triage-Systeme arbeiten zuverlässig in Normalbedingungen. Aber unter plötzlicher Datenüberlastung oder widersprüchlichen Symptomalarmen steigt die Fehlerrate signifikant, wie ein Bericht der Mayo Clinic (2023) zur Notaufnahmeanalyse bei KI-Triage-Systemen dokumentiert. Dort stieg die Verfehlung kritischer Diagnosen unter hoher Auslastung um 18 %.
- Finanzwelt: In Hochfrequenzhandelssystemen können stressinduzierte Anomalien zu Marktverzerrungen oder gar Flash Crashes führen – etwa durch Fehlbewertungen in Paniksituationen. Der europäische Finanzaufsicht ESMA veröffentlichte 2024 eine Warnung über die mangelnde Stressresistenz algorithmischer Trading-Systeme.
Dies ruft nicht nur Techniker und Entwickler auf den Plan, sondern auch Politik und Regulatoren. Die geplante EU AI Act fordert ausdrücklich Maßnahmen zur „sicheren Funktionserhaltung von KI-Systemen auch bei unerwartetem Verhalten oder Stressbedingungen“.
Vorbild Mensch – Neue Debatte um Resilienz in KI-Systemen
In der Psychologie beschreibt Resilienz die Fähigkeit, mit Belastungen konstruktiv und anpassungsfähig umzugehen. Genau diese Fähigkeit scheint vielen KI-Systemen zu fehlen. Doch es gibt Ansätze, um „psychologische“ Prinzipien technologische nutzbar zu machen.
Eine zunehmende Zahl von Forschungsteams entwickelt sogenannte Stress-Resilienz-Modelle für Maschinen. Ein Beispiel sind adaptive Metareasoning-Module, die es Systemen ermöglichen, auf Basis ihrer eigenen „kognitiven“ Zustände Entscheidungen neu zu gewichten. Ein besonders vielversprechender Ansatz: das „Cognitive Load Estimation Framework“ der University of Cambridge (Publikation: NeurIPS 2024). Dieses System ermittelt in Echtzeit interne Belastungsgrade eines KI-Systems – ähnlich einem Puls – und kann in Stresssituationen automatisch Aufgaben priorisieren oder sogar mit dem Menschen delegieren.
Ein anderer Ansatz ist der gezielte Einsatz von adversarial training: KI-Agenten werden bewusst mit verzerrten, verwirrenden oder fehlerhaften Eingaben trainiert, um sie auf Störungen vorzubereiten. Studien von Meta AI (2023) und OpenAI (2024) zeigen, dass solcherart trainierte Agenten um bis zu 36 % stabiler unter chaotischen Umweltbedingungen agieren als herkömmlich trainierte Systeme.
Drei Handlungsempfehlungen für resilientere KI-Systeme
- Implementieren Sie adaptive Kontrollinstanzen: Ergänzen Sie KI-Systeme mit übergeordneten Entscheidungsstrukturen, die situativ Prioritäten anpassen und Irritationssignale erkennen – vergleichbar einem kognitiven Schaltkreis.
- Trainieren Sie unter Stressbedingungen: Verwenden Sie realistische, auch fehlerhafte oder widersprüchliche Trainingsumgebungen, um Systeme an Belastungssituationen frühzeitig zu gewöhnen.
- Führen Sie Belastungstests in der Qualitätssicherung ein: Analog zu Software-Stresstests sollten KI-Algorithmen regelmäßig auf Funktionserhalt unter abnormalen Bedingungen geprüft werden.
Resilienz ist kein Luxus – sie ist Pflicht
Zuverlässigkeit unter Druck ist keine Option, sondern ein Muss – besonders bei sensiblen automatisierten Entscheidungsprozessen. Die aktuelle Forschung öffnet das Bewusstsein für einen blinden Fleck in der KI-Entwicklung und fordert Entwickler, Unternehmen wie Regulierungsbehörden zum Umdenken. Es geht nicht mehr nur um Effizienz, sondern um Nachhaltigkeit, Sicherheit und Vertrauen in die Technologie der Zukunft.
Die positive Nachricht: Die Werkzeuge zur Verbesserung der Stressresistenz existieren – jetzt ist es an der Zeit, sie systematisch und verantwortungsvoll einzusetzen.
Welche Erfahrungen habt ihr mit instabilen KI-Entscheidungen unter Belastung gemacht? Diskutiert mit uns in den Kommentaren – wir freuen uns auf eure Perspektiven!




