Ein Vorfall bei der US-Cyberbehörde CISA wirft ein grelles Schlaglicht auf die Schattenseiten populärer KI-Anwendungen: Ein leitender Mitarbeiter nutzte die kostenlose Version von ChatGPT, um sensible Informationen zu verarbeiten – entgegen aller internen Vorschriften. Der Fall löst nicht nur intern Alarm aus, sondern wirft auch grundlegende Fragen zum sicheren Einsatz von KI in sicherheitskritischen Behörden auf.
Vertrauliche Daten, öffentliche KI: Der Vorfall bei der CISA
Im Dezember 2025 wurde bekannt, dass ein hoher Funktionsträger der Cybersecurity and Infrastructure Security Agency (CISA) – der US-Behörde für Cybersicherheit – Informationen aus internen Lageberichten in die frei zugängliche ChatGPT-Oberfläche eingegeben hatte. Ziel war es laut interner Mitteilungen, Texte effizienter zusammenzufassen und die Arbeit zu beschleunigen. Doch die dabei verwendete kostenlose Version speichert standardmäßig Nutzereingaben zur Verbesserung des Modells – und bricht damit grundlegende Compliance-Richtlinien der Behörde.
Der Vorfall führte zu internen Untersuchungen, einer sofortigen Suspendierung des Mitarbeiters und erhöhter medialer Aufmerksamkeit. Laut CISA-internen Protokollen, die dem US-Magazin Politico vorliegen, enthielten die eingegebenen Daten keine klassifizierten, aber sehr wohl „dienstlich sensible Informationen“, darunter IP-Adressen kritischer Infrastrukturen sowie Analysepassagen zu Bedrohungslagebildern. Obwohl kein aktiver Datenabfluss nachgewiesen wurde, gilt der Vorfall als schwerwiegender Vertrauensbruch in einer Organisation, die maßgeblich für den Schutz von Behörden- und Unternehmensnetzwerken in den USA verantwortlich ist.
Die Sicherheitslücke im Kopf: Menschliches Risiko in Zeiten generativer KI
Die CISA verfügt – wie viele Behörden und Unternehmen weltweit – über klare Regularien zur Nutzung von KI-Tools. Grundlegend verboten ist dabei die Verwendung öffentlicher KI-Dienstleistungen für die Verarbeitung von Daten, die als Sensitive But Unclassified (SBU) eingestuft sind. Doch der Fall zeigt: Mit der schieren Allgegenwart von Tools wie ChatGPT, Gemini oder Claude steigt auch das Risiko von Regelverstößen – oft nicht aus böswilliger Absicht, sondern aus Unwissenheit oder Effizienzbestreben.
Besonders brisant: Viele kostenlose oder niedrigschwellige KI-Dienste loggen regelmäßige Daten zu Trainingszwecken. OpenAI bestätigte 2023 auf einer FAQ-Seite, dass Nutzereingaben in der normalen Version von ChatGPT standardmäßig zur Verbesserung des Modells gespeichert werden – es sei denn, man nutzt den sogenannten Temporären Chatmodus oder die kostenpflichtige API mit deaktivierter Protokollierung (Quelle).
Was generative KI für Behörden so riskant macht
Die Einbindung generativer KI in Arbeitsprozesse verspricht Produktivitätsgewinne, birgt jedoch neue cybersicherheitsrelevante Herausforderungen. Behörden und Unternehmen sehen sich dabei insbesondere vier zentralen Herausforderungen gegenüber:
- Undurchsichtige Datenverarbeitung: Eingaben in Closed-Source-KIs laufen über Blackbox-Systeme, Rückverfolgung oder Schutz vor externer Weiterverwertung sind schwer möglich.
- Unkontrollierbare Ausgabe: KI-generierter Text vermittelt Autorität, kann aber ungewollt Fehlinformationen enthalten oder falsch kopiert werden.
- Datenschutzkonflikte: Insbesondere bei personenbezogenen oder betriebsgeheimen Informationen drohen durch unachtsamen Gebrauch DSGVO-Konflikte sowie interne Regelverstöße.
- Angriffsfläche Halluzination: Fehlinterpretationen und Halluzinationen von KI-Systemen können strategische Fehlentscheidungen begünstigen, etwa in Sicherheitseinschätzungen.
Der Vorfall bei der CISA ist insofern kein Einzelfall, sondern symptomatisch für einen globalen Trend: Die Nutzung von generativer KI wächst rasant – schneller als industrieübergreifende Standards zur sicheren Einbindung entstehen. Laut einer Erhebung des Ponemon Institute von 2025 geben 59 % aller befragten IT-Sicherheitsverantwortlichen in US-Unternehmen an, dass Mitarbeiter bereits nicht genehmigte KI-Dienste für Arbeitsinhalte genutzt haben (Quelle).
Was jetzt zählt: Sicherheitsrichtlinien, Schulung, klare Prozesse
Mit wachsender Integration künstlicher Intelligenz in Berufswelten braucht es solide Sicherheitskultur, technische Kontrollmechanismen und geprüfte Werkzeuge. Öffentliche Behörden stehen dabei vor zwei Kernaufgaben: dem Schutz sensibler Informationen und der Schulung ihrer Mitarbeitenden.
- Sofortmaßnahmen zur Risikominderung: Behörden sollten alle Cloud-basierten KI-Dienste auf „Allow-Listen“ regulieren und Logsysteme etablieren, die Prompt-Aktivitäten überprüfen.
- Transparente, verbindliche Richtlinien: Jedes sicherheitskritische Umfeld benötigt klar dokumentierte Freigabeprozesse und transparente Dokumentation für KI-Einsätze.
- Schulungen mit realen Praxisfällen: Mitarbeitende müssen regelmäßig in den sicheren Umgang mit KI geschult werden – inklusive praktischer Beispiele und Simulationen von Regelverstößen.
Ein europäisches Vorbild liefert etwa die Bundesagentur für Arbeit (BA), die 2024 ein internes KI-Governance-Framework implementierte. Bestandteil davon ist ein eigenes Gremium, das alle KI-Projekte nach DSGVO- und Sicherheitsaspekten bewertet. Die Schweiz wiederum setzt im Bereich kritischer Infrastrukturen seit 2025 auf eine Meldepflicht für sämtliche KI-basierte Automatisierungsprozesse.
Open Source und Self-Hosting als sicherer KI-Weg?
Eine mögliche Lösung für Behörden und kritische Infrastrukturen liegt in der Nutzung selbstgehosteter, quelloffener Modelle. Projekte wie Ollama, LM Studio oder der Einsatz von Llama 3 (Meta) und Mistral 7B als lokal betriebene Sprachmodelle bieten Organisationen eine datenschutzfreundlichere Alternative. Die Möglichkeit zur vollständigen Kontrolle über Infrastruktur, Datenfluss und Logging macht solche Modelle insbesondere im militärischen, sicherheitspolitischen und geopolitischen Umfeld immer interessanter.
Erste Pilotprojekte laufen unter anderem im US-Verteidigungsministerium („Task Force Lima“) sowie bei staatlichen Cyberabwehreinheiten Israels, wo isolierte LLMs für Lagebildanalysen genutzt werden – allerdings mit erheblichen Rechenressourcen- und Trainingsanforderungen.
Rechtliche Entwicklungen: Was bringt der AI Act für Sicherheitsbehörden?
Mit dem erstmals regulativ greifenden EU AI Act, der 2026 vollständig in Kraft tritt, werden auch öffentliche Einrichtungen stärker in die Pflicht genommen. Für sicherheitskritische Anwendungen – inklusive KI-gestützter Analysetools in Polizei und Nachrichtendiensten – sehen die Regularien erhöhte Prüf-, Dokumentations- und Risikobewertungspflichten vor. Noch offen ist die genaue Einstufung offener Modelle oder Multimodalität (z. B. mit Bild- und Sprachdaten).
Auch auf US-Seite gewinnt die Regulierung an Fahrt. Die Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence von Präsident Biden aus dem Oktober 2023 legt Leitlinien für die Behördennutzung von KI fest und enthält konkrete Verhaltensregeln für Datenklassifikation, Audits und Drittanbieterverträge (Quelle).
Fazit: Vom Warnsignal zur Weichenstellung
Der Fall bei der CISA ist kein Skandal im klassischen Sinne, sondern ein deutliches Warnsignal für Behörden und Unternehmen weltweit. Er zeigt, wie schnell digitaler Leichtsinn dramatische Konsequenzen auslösen kann – besonders wenn keine verbindlichen KI-Richtlinien oder technische Schutzmaßnahmen existieren. Gleichzeitig eröffnet der Vorfall die Chance, KI-Governance systemisch zu verankern und den professionellen Einsatz generativer Modelle in sicherheitskritischen Bereichen verantwortungsvoll zu gestalten.
Jetzt sind CIOs, CISOs und Entscheidungsträger gefragt: Definitionen, Prozesse und technologische Voraussetzungen müssen ein neues Gleichgewicht zwischen Innovationsnutzen und Sicherheitslinie schaffen. Dort, wo High Stake Decisions getroffen werden, darf kein KI-System mit öffentlich zugänglichen APIs unbeaufsichtigt agieren.
Wie gelingt es Ihrer Organisation, leistungsfähige KI sicher und verantwortungsvoll einzusetzen? Teilen Sie Ihre Best Practices und Herausforderungen mit uns – die Community braucht kollektives Wissen mehr denn je.



