Tech & Trends

KI im Coding: Die Herausforderungen bei der Malware-Erkennung

Ein strahlend helles, natürlich beleuchtetes Büro mit einem konzentrierten Softwareentwickler vor einem mehrbildrigen Bildschirm voller farbiger Codezeilen und Datenvisualisierungen, umgeben von warmem Holz und lebendig grünen Pflanzen, das die komplexe, menschlich-unterstützte KI-gestützte Malware-Erkennung in einer modernen, einladenden Arbeitsumgebung authentisch widerspiegelt.

Künstliche Intelligenz (KI) verändert die Softwareentwicklung – auch im Bereich Cybersicherheit. Doch neue Analysen zeigen auf: Beim Erkennen und Verhindern von Malware stößt die Technik an ernstzunehmende Grenzen. Wie gefährlich ist das – und wie lässt sich das Vertrauen in KI-basierte Sicherheitslösungen stärken?

KI-gestützte Malware-Erkennung: Fortschritt mit Schwächen

KI-Systeme gelten als Hoffnungsträger bei der Erkennung von Schadsoftware. Besonders Machine Learning (ML) kommt zunehmend zum Einsatz, um verdächtige Muster in großen Datenmengen zu identifizieren. Doch eine aktuelle Studie der Universität Cambridge und der University of California, veröffentlicht im IEEE Security & Privacy Journal (Juli 2024), warnt: Künstliche Intelligenz ist selbst zunehmend anfällig für sogenannte adversariale Angriffe – manipulierte Malware, die speziell darauf ausgelegt ist, KI-basierten Erkennungsmechanismen zu entgehen.

Die Forscher demonstrierten, dass es möglich ist, mit automatisierten Tools schädlichen Code geringfügig zu verändern, sodass KI-Modelle ihn zuverlässig als harmlos einstufen. Das bedeutet: Der Einsatz von KI kann paradox wirken, wenn er von Angreifern ebenfalls für die Tarnung von Malware verwendet wird.

Von GPT zu GPTZero-Day? Die Doppelseitigkeit der KI

Generative KI-Tools wie OpenAI’s GPT-4 oder Googles Gemini sind längst nicht mehr nur für Texteinsatz interessant. In der IT-Sicherheitswelt wächst die Sorge, dass solche Systeme auch zur automatisierten Malware-Erstellung eingesetzt werden können. Tatsächlich konnte ein Sicherheitsteam der Stanford University in Versuchen 2024 nachweisen, dass LLMs mit geeigneten Prompts Codefragmente erzeugen, die in Toolkits für Zero-Day-Exploits integriert werden können.

Gleichzeitig sind diese Systeme – etwa in Form von Copilot oder Amazon CodeWhisperer – in Entwickler-Workflows eingebungen. Ein unbeabsichtigtes Durchwinken von schadhafter Logik durch vermeintlich hilfreiche KI-Vorschläge ist nicht auszuschließen. Bereits im Mai 2024 fand GitHub intern heraus, dass etwa 6,2 % der von Copilot generierten Codevorschläge Sicherheitslücken oder unsichere Praktiken enthalten (Quelle: GitHub Security Research Insights 2024).

Malware Detection mit KI: Das aktuelle Ökosystem

Der Markt für KI-basierte Malware Detection wächst. Laut Markets and Markets soll der globale Markt für KI in der Cybersicherheit von 22,4 Milliarden US-Dollar (2023) auf 60,6 Milliarden US-Dollar im Jahr 2028 anwachsen – mit einer jährlichen Wachstumsrate von 21,9 %.

Führende Produkte wie Microsoft Defender for Endpoint, CrowdStrike Falcon oder Darktrace setzen bereits heute auf Machine Learning und Verhaltensanalyse, um komplexe Angriffe in Echtzeit zu erkennen. Aber: Diese Tools basieren auf historisch validierten Modellen – neue, polymorphe Malware bleibt nach wie vor schwer erkennbar. Die ETH Zürich stellte 2023 in einem Test fest, dass ML-Modelle nur in 63 % der Fälle bisher unbekannte Malware korrekt als solche identifizieren, während Signature-basierte Systeme immerhin 57 % erreichten – ein ernüchternder marginaler Zugewinn.

Warum KI derzeit (noch) limitiert ist

Die Gründe für die Schwächen aktueller Systeme lassen sich auf mehrere Faktoren zurückführen:

  • Datenabhängigkeit: ML-Modelle benötigen große, saubere und aktuelle Datensätze. Viele Systeme verwenden veraltete oder unzureichend annotierte Daten, was ihre Prognosekraft mindert.
  • Mangel an Kontextsicherheit: Eine verdächtige Funktion könnte in einem Kontext harmlos, in einem anderen gefährlich sein. KI hat Schwierigkeiten, diese feinen Unterschiede zu erkennen.
  • Geringe Robustheit gegen Variation: Malware-Autoren nutzen „Fuzzy Packing“, Verschleierung und Code-Oligomorphie, wodurch bekannte Muster systematisch unterlaufen werden.

Selbst Deep Learning-Verfahren wie CNNs oder RNNs, die in Images oder Traffic-Logs gute Ergebnisse erzielen, lassen sich relativ leicht austricksen – etwa durch adversariale Samples, die gezielt auf die Schwächen einzelner Layer abzielen.

Handlungsempfehlungen für Unternehmen und Entwickler

Vor dem Hintergrund der aktuellen Herausforderungen sollten Unternehmen und Softwareentwickler KI nicht blind vertrauen, sondern aktiv mit Risiko- und Sicherheitsbewusstsein integrieren. Folgende Maßnahmen werden empfohlen:

  • Mehrstufige Erkennungssysteme einsetzen: Kombinieren Sie KI mit traditioneller Signaturen-Analyse und Heuristik-Systemen, um Schichtenverteidigung zu ermöglichen.
  • Modelle regelmäßig nachtrainieren: Stellen Sie sicher, dass ML-Modelle auf aktuellen Bedrohungsdaten basieren und zyklisch evaluiert werden.
  • Prompt-Sicherheit und Input Filtering: Vermeiden Sie unsichere Eingabeaufforderungen in LLMs, insbesondere bei automatisierter Codegenerierung.

Trends und Ausblick: Braucht KI menschliche Kontrolle?

Der Trend zur „Human-in-the-Loop”-Strategie gewinnt an Bedeutung. Dabei agiert die KI nicht autark, sondern dient als Assistenzsystem, das durch menschliches Eingreifen korrigier- und kontrollierbar bleibt. Große Sicherheitsanbieter wie Palo Alto Networks haben in ihren 2025er Releases entsprechende Kontrollmechanismen implementiert – inklusive KI-Audit-Trails, die sämtliche Entscheidungen rückverfolgbar machen.

Gleichzeitig entstehen spezialisierte KI-Modelle wie Meta AI’s „CyberLM“, die gezielt auf Cybersicherheitsdaten trainiert werden – anders als die breiten LLMs. Diese sogenannte Domain-Spezialisierung verspricht deutlich robustere Erkennungsraten. Allerdings bleibt die Angreifer-Seite ebenfalls nicht stehen: Bereits 2024 kursierten im Darknet GPT-Derivate (

Schreibe einen Kommentar