Der Einsatz künstlicher Intelligenz zur Videoüberwachung sorgt in Deutschland zunehmend für Diskussionen. Vorreiter auf Landesebene ist Niedersachsen, das den gezielten Einsatz von KI-gestützter Videoanalyse zur Erhöhung der öffentlichen Sicherheit plant. Doch der Spagat zwischen Sicherheitsgewinn und Grundrechtsschutz bleibt eine Gratwanderung.
KI-gestützte Videoüberwachung in Niedersachsen: Das steckt hinter den Plänen
Niedersachsens Landesregierung unter Innenministerin Daniela Behrens (SPD) plant eine umfassende Ausweitung von Videoüberwachung mit Unterstützung künstlicher Intelligenz. Der Vorschlag, in einem Gesetzespaket zur inneren Sicherheit enthalten, sieht vor, dass bestehende Kameras durch intelligente Systeme ergänzt werden, die etwa verdächtige Bewegungsmuster, verlassene Gegenstände oder aggressive Verhaltensweisen automatisch erkennen können. Das Ziel: Straftaten präventiv erkennen, schneller eingreifen und Ermittlungen effizienter gestalten.
Derzeit laufen in mehreren Städten Pilotprojekte, darunter in Hannover, Oldenburg und Osnabrück, bei denen smarte Videoanalytik im öffentlichen Raum testweise eingesetzt wird. Grundlage dafür ist laut Innenministerium eine Auswertung bestehender Überwachungsdaten in Kombination mit KI-Modellen zur Mustererkennung. Dabei kommen Technologien wie Objekterkennung, Verhaltensanalyse und Echtzeit-Bildverarbeitung zum Einsatz.
Chancen durch intelligente Überwachungstechnologie
Die Befürworter der KI-gestützten Videoüberwachung führen eine Reihe potenzieller Vorteile an:
- Prävention: Frühzeitige Erkennung gefährlicher Situationen kann Eskalationen verhindern. KI kann etwa flüchtende Personen, Rangeleien oder gestikulierende Gruppen automatisiert analysieren.
- Ressourceneffizienz: Sicherheitskräfte erhalten relevante Hinweise zielgerichtet, statt stundenlang Videomaterial manuell zu sichten.
- Aufklärungsquote: Dank schnellerer Auswertung von Beweismitteln lassen sich mehr Straftaten nachweisen, Täter identifizieren und Prozesse beschleunigen.
Laut einer Studie des Deutschen Forums für Kriminalprävention (DFK) aus dem Jahr 2023 geben 62 % der befragten Bürgerinnen und Bürger an, sich durch smarte Sicherheitsmaßnahmen wie KI-gestützte Kameras sicherer zu fühlen. In Städten mit erhöhter Kameraüberwachung wie London oder Guangzhou konnte die Aufklärungsrate für bestimmte Delikte laut Untersuchungen der Universität Cambridge um bis zu 20 % steigen.
Der Datenschutzkonflikt: Kritik von Juristen und Bürgerrechtsorganisationen
Zahlreiche Experten weisen jedoch auf erhebliche Risiken hin. Die niedersächsische Landesbeauftragte für den Datenschutz, Barbara Thiel, äußerte bereits mehrfach rechtliche Bedenken. Ihrer Einschätzung nach seien viele Formen der automatisierten Videoanalyse mit geltendem Datenschutzrecht – insbesondere der DSGVO – nicht vereinbar.
Ein zentrales Problem liegt in der Zweckbindung und Verhältnismäßigkeit: Dürfen Daten über zufällig erfasste Passanten gespeichert und ausgewertet werden, obwohl sie keinerlei Straftaten begehen? Droht eine umfassende Verhaltensüberwachung, die in ihrer Konsequenz zu chilling effects und Anpassung des öffentlichen Verhaltens führen könnte?
Auch die NGO Digitalcourage warnt vor einem „Überwachungsstaat durch die Hintertür“. Die Organisation verweist auf Studien, die zeigen, dass KI-basierte Systeme oft fehleranfällig sind, etwa bei der Identifikation ohne klare Lichtverhältnisse oder bei Menschen mit dunkler Hautfarbe (siehe Algorithmic Justice League, 2023). Zudem mangelt es vielen eingesetzten KI-Modellen an Transparenz und Nachvollziehbarkeit.
Ein Beispiel: In Hamburg wurde ein ähnliches System testweise installiert. Die Fehlerquote bei der Erkennung von vermeintlich aggressivem Verhalten lag bei über 15 %, wie ein interner Prüfbericht des dortigen Polizeipräsidiums im Oktober 2023 offenlegte. In der Praxis bedeutete das: mehrfache Fehlalarme, unnötige Einsätze und eine verzerrte Risikowahrnehmung bei Sicherheitsbehörden.
Normative Grundlage und politische Debatte
Das Bundesverfassungsgericht hat wiederholt betont, dass Eingriffe in Grundrechte, insbesondere das Recht auf informationelle Selbstbestimmung, nur unter strengen Auflagen erfolgen dürfen. Dennoch scheint die Gesetzeslage in vielen Bundesländern nicht Schritt halten zu können mit der technologischen Entwicklung.
Der Bitkom e. V. fordert daher klare gesetzliche Rahmenbedingungen für KI in der Videoüberwachung – inklusive Pflicht zur Dokumentation angewandter Modelle, Auditierbarkeit der Systeme und Schutzmechanismen gegen Data Mining und Missbrauch. Auch die EU-Kommission hat mit dem AI Act erste Leitlinien gesetzt und biometrische Remote-Überwachung als besonders riskante Anwendung eingestuft – mit hohen regulatorischen Hürden.
Einheitliche Standards fehlen jedoch bislang. Experten sehen darin ein Risiko für einen Flickenteppich verschiedener Länderregelungen und Rechtsunsicherheit für alle Beteiligten – von Kommunen über Behörden bis hin zu Tech-Anbietern.
In Niedersachsen steht daher auch die politische Diskussion unter Druck. Während SPD und CDU den Einsatz befürworten, lehnen Grüne und FDP den aktuellen Gesetzentwurf in weiten Teilen ab. Die finale Abstimmung ist für Ende 2025 im Niedersächsischen Landtag vorgesehen.
Laut aktueller Umfrage des Meinungsforschungsinstituts Forsa im Auftrag des NDR (Juni 2024) befürworten 58 % der Bürgerinnen und Bürger in Niedersachsen den Einsatz intelligenter Kameras an Kriminalitätsschwerpunkten – sofern Datenschutz gewahrt bleibt.
Technologische Aspekte: Wie funktioniert KI-basierte Videoauswertung?
Technisch funktionieren moderne Systeme auf Basis von Deep Learning, insbesondere Convolutional Neural Networks (CNNs), die in Videostreams bestimmte Objekte, Muster oder Bewegungen erkennen. Die Systeme lernen, gestische oder mimische Anomalien zu interpretieren, etwa panisches Verhalten, ruckartige Bewegungen oder aggressive Körpersprache.
Einige Anbieter wie Bosch Security, BriefCam oder AnyVision integrieren zudem Funktionen zur Personenzählung, Maskenerkennung und Heatmap-Erstellung zur Analyse von Besucherströmen. Die Herausforderungen liegen im Umgang mit Sensordaten in Echtzeit, dem Edge Processing sowie der Vermeidung von False Positives durch robuste Trainingsdatensätze – eine Herausforderung insbesondere in deutschen Städten mit hoher Diversität und wechselnden Wetterbedingungen.
Praktische Tipps: So gestalten Verwaltungen und Betreiber den KI-Einsatz rechtskonform
- Transparente Kommunikation: Informieren Sie Bürgerinnen und Bürger klar über eingesetzte Technologien, Funktionsweise und Speicherfristen – etwa über Hinweisschilder und Infoportale.
- Datenschutzkonforme Architektur: Setzen Sie auf Edge AI, bei der Daten lokal verarbeitet werden, anstatt permanent zu zentralisieren. So lässt sich die Privatsphäre wahren.
- Regelmäßige Audits: Lassen Sie die eingesetzten Systeme durch unabhängige Stellen auditieren – technischer Datenschutz muss nachweisbar gewährleistet sein.
Ausblick: Technologischer Fortschritt versus gesellschaftliche Verantwortung
Mit der zunehmenden Verfügbarkeit und Effizienz von KI-Systemen wird auch die Nutzung in der öffentlichen Sicherheit zunehmen. Niedersachsen geht hier als Testfeld voran – mit Chancen für effizientere Straftatenprävention, aber auch Unsicherheiten hinsichtlich rechtsstaatlicher Grenzen.
Wichtig bleibt, dass der Einsatz intelligenter Systeme eingebettet wird in ein kohärentes ethisches, technisches und rechtliches Rahmenwerk. Um zukünftige Fehlentwicklungen zu vermeiden, braucht es Standards, unabhängige Kontrolle und politische Weitsicht.
Die Diskussion um KI-gestützte Überwachungssysteme beginnt gerade erst – und sie geht uns alle an. Teilen Sie uns Ihre Meinung mit: Wie steht die Community zur Videoüberwachung durch KI? Was wären für Sie rote Linien? Diskutieren Sie mit in den Kommentaren und bleiben Sie kritisch-informiert.