Künstliche Intelligenz

PromptLock: Wie KI die Bedrohung durch Schadsoftware verschärft

In einem hell erleuchteten, modernen Büro sitzt eine fokussierte IT-Sicherheitsexpertin vor mehreren Bildschirmen mit dynamisch dargestellten Codes und Netzwerksknoten, während warmes Tageslicht sanft durch große Fenster fällt und so trotz der ernsten Thematik eine Atmosphäre von Zuversicht und technologischem Fortschritt schafft.

Cyberkriminelle nutzen zunehmend Künstliche Intelligenz, um immer raffiniertere Angriffe durchzuführen. Ein aktuelles Beispiel ist die neue Schadsoftware PromptLock, die automatisiert Verschlüsselungsskripte generiert. Doch was macht diese Bedrohung so gefährlich und welche Strategien helfen im Kampf gegen KI-gestützte Angriffe?

KI als Cyberwaffe: Das ist PromptLock

PromptLock ist eine neuartige Ransomware, die sich durch die Integration generativer KI-Technologien wie Large Language Models (LLMs) von früheren Varianten abhebt. Im Gegensatz zu herkömmlicher Schadsoftware wird der Schadcode hier nicht vollständig vom Angreifer geschrieben, sondern dynamisch mithilfe von KI erstellt – auf Basis von sogenannten Prompts, also textbasierten Anweisungen.

Diese Integration erlaubt eine erhebliche Flexibilisierung des Angriffsablaufs. So generiert PromptLock in Echtzeit PowerShell- oder Python-Skripte, die Dateien auf dem System des Opfers verschlüsseln, Inhalte exfiltrieren oder bestehende Sicherheitsmaßnahmen umgehen. Sicherheitsanalysten berichten, dass die Ransomware sich außerdem selbst rekonfiguriert, je nach Erkennungslage durch Antivirussoftware – eine Fähigkeit, die durch generative Modelle gesteuert wird.

Die neue Generation der Schadsoftware

PromptLock steht exemplarisch für eine neue Entwicklung: Schadsoftware 2.0, automatisiert und KI-optimiert. Durch die Nutzung öffentlich zugänglicher APIs von KI-Diensten wie OpenAI oder lokalen LLMs (z. B. durch llama.cpp oder Ollama) können Hacker Angriffe anpassen, ohne selbst programmieren zu müssen. Das verringert die Einstiegshürde und erhöht die Variabilität.

Diese Automatisierung erhöht nachweislich die Angriffsgeschwindigkeit. Laut einem Bericht des MITRE ATT&CK Project gelingt es KI-basierten Angriffssystemen, Angriffszyklen in weniger als 24 Stunden zu durchlaufen – inklusive Reconnaissance, Exploitation und Delivery. PromptLock kann in einem typischen Szenario eine vollständige Verschlüsselung von Nutzerdaten innerhalb von 18 Minuten erreichen (Quelle: Kroll Cyber Threat Intelligence, 2025).

Die neuen Herausforderungen für Cybersicherheitsteams

Für Sicherheitsverantwortliche stellen KI-gestützte Schadprogramme wie PromptLock eine doppelte Herausforderung dar. Zum einen durch ihre Geschwindigkeit und Varianz, zum anderen durch die „legitime“ Art der Codierung. Da viele LLMs auf Basis öffentlich zugänglicher Daten trainiert wurden, erzeugen sie meist funktionale, schwer als verdächtig erkennbare Skripte.

Hinzu kommt die Fähigkeit zum sogenannten polymorphen Verhalten: Jeder Angriff kann sich in Sprache, Struktur und Technik vom vorherigen unterscheiden. Klassische Signatur-basierte Systeme zur Malware-Erkennung versagen dadurch zunehmend. Die Kaspersky Threat Intelligence Group hat im April 2025 einen Anstieg von polymorphen Angriffsmustern um 217 % gegenüber dem Vorjahr festgestellt.

Angriffsvektoren und Taktiken von PromptLock

PromptLock gelangt über typische Vektoren auf die Zielsysteme. Besonders häufig kommen Phishing-E-Mails mit eingebetteten Makros oder verschleierten Links zum Einsatz. Doch die eigentliche Bedrohung beginnt nach der Infektion: PromptLock lädt zunächst ein leichtes LLM-Modell aus dem Internet – oder nutzt ein bereits im Netzwerk befindliches –, um dann auf Befehl dynamische Verschlüsselungsroutinen zu erzeugen.

Ein Beispiel aus einem real dokumentierten Fall in Europa zeigt, wie mit PromptLock innerhalb eines Versicherungsnetzwerks mehr als 120 Systeme betroffen waren. Die Angreifer konnten durch KI-generierte Skripte sogar eine segmentierte Netzwerkarchitektur überwinden, indem sie spontan Netzwerk-Exploration und Credential Harvesting integrierten.

Ebenso besorgniserregend ist der zunehmende Einsatz von sogenannten Jailbreaking-Techniken gegen KI-Systeme: Angreifer manipulieren LLMs mit speziell formulierten Eingaben, um sicherheitskritische Funktionen (wie Code-Generierung) freizuschalten, obwohl diese offiziell deaktiviert sind.

Zwischen Verteidigung und Überforderung: Wie Unternehmen reagieren können

Trotz der wachsenden Gefahr stehen Unternehmen nicht machtlos da. Es gibt konkrete Strategien, wie Sicherheitsverantwortliche sich gegen PromptLock und ähnliche KI-gestützte Angriffe wappnen können.

  • Zero Trust Architektur etablieren: Vertrauen Sie keinem Endpunkt per se. Etablieren Sie Mikrosegmentierung, sodass sich ein kompromittierter Host nicht lateral ausbreiten kann.
  • Threat Intelligence updaten: Klassische Malware-Erkennung reicht nicht mehr. Setzen Sie auf KI-gestützte XDR-Plattformen und Behavioral Analytics, die Muster und Anomalien erkennen.
  • KI-Systeme mit Sicherheitsfiltern: Kontrollieren Sie die Nutzung von LLMs innerhalb Ihrer Infrastruktur. Implementieren Sie Filter, Logging und Einschränkungen bei promptgestützter Softwareentwicklung.

Potenzial für Angreifer – und Verteidiger

Wie bei jeder Technologie ist auch bei PromptLock der disruptive Charakter nicht auf Kriminelle beschränkt. Tatsächlich nutzen auch Sicherheitsfirmen LLMs für die Abwehr: So zeigt Microsoft in einem Update zu Defender for Endpoint (April 2025), dass KI-basierte Mustererkennung Angriffszyklen in Echtzeit unterbrechen kann. Bereits über 41 % der Unternehmen weltweit nutzen laut IBM „AI-Enhanced Threat Detection“.

Allerdings warnen Analysten: Nur wer eigene KI-Strategien entwickelt, bleibt langfristig resilient. PromptLock demonstriert, dass Offensivkräfte mit minimalem Ressourceneinsatz komplexe Attacken fahren können – unterstützt durch kostenlose oder gehackte LLM-Infrastrukturen.

Auch Open-Source-KI birgt Risiken: Eine Studie der Universität Cambridge (März 2025) analysierte über 13.000 frei zugängliche LLM-Prompts und stellte fest, dass über 9 % zu illegal nutzbaren Output führen, wie Exploits oder Ransomware-Komponenten.

Was der Gesetzgeber plant – und was fehlt

Obwohl die EU mit der aktuellen KI-Verordnung (AI Act, voraussichtlich vollständig wirksam ab Anfang 2026) strenge Regeln für Hochrisiko-Anwendungen einführen will, greift diese Regulierung bei PromptLock und ähnlichen Bedrohungen zu kurz. Denn Malware ist per Definition illegal – KI-Verbote nützen wenig, wenn die Angreifer anonym bleiben und die KI-Modelle dezentral und quelloffen verfügbar sind.

Einige Initiativen setzen auf freiwillige Selbstverpflichtung der KI-Anbieter. Google, Meta, Anthropic und OpenAI haben angekündigt, ihre Modelle stärker zu kontrollieren. Doch Jailbreaking, Open-Source-Modelle und selbsttrainierte Systeme bleiben weiterhin frei verfügbar.

Daher fordern Sicherheitsexperten, die Regulierung mit realitätsnahen Cybersicherheitsrichtlinien zu verknüpfen – etwa verpflichtenden Audit-Logs für jede von KI erzeugte Funktionskomponente in sicherheitskritischen Systemen oder die Lizensierung von LLM-Infrastruktur im Unternehmensumfeld.

Fazit: Ein Wettrüsten mit offenem Ausgang

PromptLock ist nicht bloß eine neue Ransomware – sie symbolisiert einen Paradigmenwechsel in der Cyberkriminalität. Die Kombination aus KI, Automatisierung und adaptivem Verhalten hebelt bewährte Abwehrtechniken aus und verlagert die Verteidigung auf eine neue strategische Ebene.

Wer heute in die eigene KI-Kompetenz investiert, stärkt nicht nur die Sicherheit des eigenen Unternehmens, sondern auch das digitale Vertrauen innerhalb der Gesellschaft. Gefragt sind jetzt Entwicklerinnen, Analysten, Forscher und Strategen, die sich aktiv an der Gestaltung wehrhafter Systeme beteiligen.

Diskutieren Sie mit: Haben Sie bereits Erfahrungen mit KI-gestützter Schadsoftware gemacht? Welche Strategien funktionieren in Ihrem Unternehmen? Teilen Sie Ihre Erkenntnisse mit der Community in den Kommentaren!

Schreibe einen Kommentar