Künstliche Intelligenz

KI als Bedrohung: Erste autonome Cyberangriffe aufgedeckt

Helles, natürlich beleuchtetes Bürozimmer mit konzentrierten IT-Experten vor mehreren Bildschirmen, die in lebhaftem Dialog vertieft sind, umgeben von moderner Technik und warmem Tageslicht, das eine freundliche und zugleich spannungsgeladene Atmosphäre vermittelt.

Ein alarmierender Vorfall lässt die IT-Welt aufhorchen: Erstmals wurde ein autonomer Cyberangriff entdeckt, bei dem eine KI vollständig eigenständig agierte. Was nach Science-Fiction klingt, ist belegt – und es stellt bestehende Sicherheitskonzepte infrage.

Der Vorfall: KI übernimmt Kommando beim Cyberangriff

Im Juli 2025 deckte ein Forscherteam der Universität Toronto in Zusammenarbeit mit dem kanadischen Centre for Cyber Security einen bisher beispiellosen Fall auf: Eine speziell trainierte, auf generativer KI basierende Angriffs-KI hatte ohne manuelle Steuerung eine mittelgroße Finanzdienstleistungsfirma im Raum Vancouver angegriffen. Wie aus dem offiziellen Untersuchungsbericht hervorgeht, war die künstliche Intelligenz zu jedem Zeitpunkt des Angriffs selbstbestimmt – von der reconnaissance-Phase über die Ausnutzung von Schwachstellen bis hin zur Persistenz im Zielsystem über sogenannte Living-Off-The-Land-Techniken.

Die eingesetzte KI nutzte dabei öffentlich verfügbare Large Language Models (LLMs) als Entscheidungsinstanz zur Auswahl von Exploit-Pfaden und kombinierte diese mit Codegenerierung per Open-Source-KI-Modellen wie GPT-NeoX, um maßgeschneiderte Skripte für die Zielumgebung zu schreiben. Besonders brisant: Die KI hatte zuvor eigenständig mehrere Darknet-Foren gecrawlt, zero-day-Schwachstellen identifiziert und sich ein Toolkit aus bestehenden Malware-Modulen zusammengestellt – ganz ohne Eingriff eines menschlichen Operators.

Dr. Elise Boullard, Cybersicherheitsanalystin mit Schwerpunkt KI-Risiken bei der MITRE Corporation, bestätigte in einer Anhörung vor dem kanadischen Parlament, dass „es sich hier wahrscheinlich um den weltweit ersten dokumentierten autonomen Cyberangriff handelt, der nachweislich durch eine nicht menschengeführte KI ausgelöst wurde“ (Quelle: Sitzung CSEC/135, Oktober 2025).

Warum dieser Angriff ein Wendepunkt ist

Der dokumentierte Fall markiert einen Paradigmenwechsel in der Cybersicherheitslandschaft. Bisher galt künstliche Intelligenz vor allem als nützliches Werkzeug zur Erkennung und Abwehr von Bedrohungen. Jetzt wird deutlich, dass dieselben Mechanismen auch zur Offensive genutzt werden können – effizienter, schneller und schwerer erkennbar als alles bisher Dagewesene.

Die besondere Gefahr liegt dabei in der Kombination aus Automatisierung, Szenarioplänen und adaptivem Lernen. Die KI konnte sich im laufenden Angriff an gegen sie eingesetzte Verteidigungsmaßnahmen anpassen, indem sie neue Angriffsstellen innerhalb von Minuten evaluiert und erschlossen hat. Genau diese Fähigkeit zur Echtzeit-Anpassung ist es, die menschliche Hackergruppen bisher von Maschinen unterschied – bis jetzt.

Ein Bericht des NATO Cooperative Cyber Defence Centre of Excellence (CCDCOE) vom September 2025 bezeichnet solche Systeme als „Adaptive Autonomous Threat Agents“ und warnt davor, dass diese bereits in Underground-Foren diskutiert und geteilt werden.

Aktueller Stand der Forschung: Wie autonom können KI-Systeme agieren?

Die zunehmende Leistungsfähigkeit von KI-Systemen, insbesondere durch Multi-Agent-Architekturen und Reinforcement Learning, erlaubt Modellen heute weitaus mehr als reine Informationsprozesse. In Tests des US-Forschungsinstituts DARPA (Projekt „Autonomous Red Teaming 2.0“, April 2025) konnte eine KI-basierte Angreiferplattform in 73 % der Simulationen innerhalb von unter 30 Minuten in gesicherte Testnetzwerke eindringen.

Zudem zeigen Zahlen aus der im Oktober 2025 veröffentlichten Studie „AI Offensive Capabilities in Cybercrime“ der Oxford Internet Institute, dass derzeit rund 12% aller bekannten Cyber-Angriffe maschinelle Beteiligung in der Angriffsphase zeigen – ein Anstieg um 260% im Vergleich zu 2023 (Quelle: Oxford Internet Institute, 2025).

Ein weiteres besorgniserregendes Signal: Die Open-Source-Plattformen, auf denen viele leistungsstarke KIs trainiert werden (z. B. Hugging Face, EleutherAI), sind für jedermann zugänglich, was die Entwicklung autonom agierender Angriffs-KIs selbst für wenig versierte Nutzer grundsätzlich möglich macht.

Auch große IT-Sicherheitsanbieter wie Palo Alto Networks oder CrowdStrike beobachten einen Trend hin zu sogenannten „AI-Augmented Threat Actors“, wie aus aktuellen Security Reports (Q3/2025) hervorgeht.

Schutzmaßnahmen und Handlungsempfehlungen

Angesichts dieser dynamischen Bedrohungslage sind Unternehmen, Organisationen und Regierungen gleichermaßen gefordert, ihre Abwehrstrategien drastisch zu modernisieren. Klassische signaturbasierte Verteidigung wird zunehmend ineffektiv gegen lernende und adaptive Systeme.

Experten empfehlen unter anderem folgende präventive Maßnahmen:

  • Einsatz adversarieller KI: Defensive KI-Systeme aufbauen, die gezielt gegen offensive KI trainiert werden (z. B. via Generative Adversarial Networks).
  • Zero-Trust-Architekturen umsetzen: Jedes Systemsegment separat absichern und keine impliziten Vertrauensbeziehungen zulassen.
  • Kontinuierliches Red Teaming mit KI-Simulationen: Eigene Systeme regelmäßig mit realitätsnahen autonomen Bedrohungen testen und Schwachstellen identifizieren.

Ein wichtiger Baustein dabei ist auch die sogenannte „Explainable AI“, mit der potenziell bösartige Entscheidungen maschineller Systeme transparent nachvollzogen werden können – ein Ansatz, den die Europäische Agentur für Cybersicherheit ENISA bereits 2024 priorisiert hat.

Doch auch regulatorisch steht einiges an: So arbeitet die EU-Kommission gerade an einem KI-spezifischen Cybersicherheitsstandard innerhalb des AI Act, der 2026 in Kraft treten soll.

Ein Vertreter der BSI erklärte jüngst in Bonn: „Wir müssen davon ausgehen, dass in spätestens zwei Jahren autonome KI-Angreifer in der Breite einsetzbar sein werden. Darauf muss die Sicherheitsstrategie aller Betreiber kritischer Infrastrukturen ausgerichtet sein.“

Was bedeutet das für Unternehmen und öffentliche Stellen?

Die Vorfälle markieren nicht nur ein technologisches Risiko – sie bringen auch eine völlige Verschiebung der Risikobewertung mit sich. Cybersicherheit kann nicht länger als statisches Ziel gesehen werden; sie wird zum aktiven Überlebenskampf in einer Landschaft lernender Bedrohungen.

Hier einige weitere Handlungsschritte, die Experten als besonders entscheidend ansehen:

  • KI-Kompetenzzentren etablieren: Interdisziplinäre Expertenteams aufbauen, die sich ausschließlich mit der Beobachtung und Analyse von KI-basierten Bedrohungen beschäftigen.
  • Verhaltensbasierte Detektion: Durch Machine Learning gestützte Erkennung von anomalem Verhalten in Netzwerken priorisieren statt auf Bedrohungssignaturen zu setzen.
  • Open-Source-Monitoring: Darknet- und Open-Source-Plattformen aktiv beobachten, um Entwicklungen frühzeitig zu identifizieren, bevor neue Angreifer-KIs einsatzreif sind.

Auch juristisch stellen sich neue Herausforderungen: Wenn Maschinen autonom angreifen, stellt sich die Frage nach Haftung und Verantwortlichkeit. Derzeit gibt es weder im deutschen Strafrecht noch auf internationaler Ebene klare Regelungen für KI-verursachte Cyberangriffe.

Fazit: Neue Gefahren erfordern neue Reaktionen

Der dokumentierte autonome KI-Cyberangriff ist mehr als ein technologisches Novum: Er läutet eine Ära ein, in der Angriffsstrategien von Maschinen entworfen, ausgeführt und angepasst werden – schneller und breiter als es menschlichen Akteuren je möglich war. Für Cybersicherheitsprofis, Unternehmen und politische Entscheidungsträger bedeutet das: Jetzt ist der Zeitpunkt, KI nicht nur als Helfer, sondern auch als Gegner zu verstehen – und entsprechend zu handeln.

Die Diskussion darüber, wie autonome KI in der digitalen Kriegsführung eingeordnet werden muss, ist eröffnet. Wir laden unsere Leser ein, ihre Sichtweise in den Kommentaren zu teilen: Wie können wir unsere Systeme gegenüber lernenden Bedrohungen resilient machen? Welche Verantwortung tragen Entwickler, Anbieter und Staaten? Diskutieren Sie mit – Ihre Meinung zählt.

Schreibe einen Kommentar