In Niedersachsen nimmt die Diskussion um den Einsatz von Künstlicher Intelligenz (KI) in der öffentlichen Videoüberwachung Fahrt auf. Zwischen Sicherheitsbedürfnis und Datenschutzethik prallen unterschiedliche Interessen aufeinander. Was steckt hinter den politischen Plänen – und welche Chancen und Risiken birgt der technologische Vorstoß?
Ein Überblick: Niedersachsens Pläne im Detail
Das niedersächsische Innenministerium kündigte Anfang 2025 an, die öffentliche Videoüberwachung mithilfe von KI-Technologie erweitern zu wollen. Ziel sei es, Straftaten in Echtzeit zu erkennen, Einsatzkräfte schneller zu alarmieren und potenzielle Gefahrenlagen frühzeitig zu identifizieren. Pilotprojekte sollen zunächst in Hannover, Braunschweig und Osnabrück starten, mit einem Fokus auf Bahnhöfen, Innenstädten und stark frequentierten Plätzen.
Die zum Einsatz kommende Technik soll laut Behörden auf sogenannten „intelligenten Mustern“ basieren. Dabei analysiert KI das Verhalten von Personen auf Basis vorher definierter Parameter – beispielsweise auffällige Bewegungsmuster, langes Verweilen an ungewöhnlichen Orten oder zurückgelassene Gegenstände.
Innenministerin Daniela Behrens (SPD) betonte: „Wir wollen keine flächendeckende Überwachung, sondern gezielte, rechtskonforme Prävention mit moderner Technologie.“ Die Landesregierung hebt hervor, dass es sich um eine ergänzende Sicherheitsmaßnahme handeln solle – unter Einhaltung datenschutzrechtlicher Bestimmungen.
Technologie hinter der Überwachung: Was ist möglich?
Die geplante smartere Videoüberwachung kombiniert hochauflösende Kameras mit KI-gestützter Bilderkennung, Musteranalyse und Verhaltensklassifikation. Zum Einsatz könnten Lösungen wie Motion Detection, Anomalie-Erkennung und Gesichtserkennung kommen – letztere jedoch bislang nur unter eng gefassten rechtlichen Rahmenbedingungen.
Eine Studie des Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung aus 2023 weist darauf hin, dass moderne KI-Systeme mittlerweile in der Lage sind, bestimmte Bedrohungsszenarien mit über 85 % Genauigkeit zu identifizieren – bei gleichzeitig sinkender Fehlerquote bei Fehlalarmen (Fraunhofer IOSB).
Technologische Partner solcher Vorhaben sind häufig Unternehmen wie Huawei, Bosch, Axis oder das Start-up Viso.ai, das sich auf visuelle KI-Intelligenz spezialisiert hat.
Datenschutz und Rechtslage: Wo liegen die Grenzen?
Kritiker bezweifeln, dass der Einsatz derartiger Systeme mit der geltenden Rechtslage vollständig vereinbar sei. Besonders umstritten ist die Frage, ob eine automatisierte Auswertung personenbeziehbarer Bildinformationen durch eine KI ohne explizite Einwilligung der Betroffenen überhaupt zulässig ist. Der Landesbeauftragte für den Datenschutz Niedersachsen hat bereits angekündigt, das Projekt genau zu überwachen.
Laut Artikel 6 der DSGVO dürfen personenbezogene Daten nur bei eindeutiger Rechtsgrundlage oder Einwilligung verarbeitet werden. Kritiker wie der Chaos Computer Club (CCC) sprechen daher von einem „grundrechtswidrigen Präventivansatz“, der Überwachung zur Norm macht.
Argumente der Befürworter: Effizienz, Prävention und Sicherheit
Die Befürworter der KI-gestützten Überwachung hingegen argumentieren mit der hohen Effizienzgewinne und der Vorbeugung schwerer Straftaten. Laut einer 2024 veröffentlichten Umfrage des Meinungsforschungsinstituts forsa im Auftrag der Polizeigewerkschaft sprechen sich 64 % der Deutschen für den punktuellen Einsatz smarter Überwachungssysteme an Gefahrenorten aus. Besonders unter über 50-Jährigen ist die Zustimmung mit über 72 % hoch (Quelle: forsa/GdP 2024).
Das Innenministerium verweist außerdem auf positive Erfahrungen aus anderen Städten. In Mannheim beispielsweise konnte die Polizei laut eigenen Angaben durch KI-gestützte Überwachungssysteme die Aufklärungsrate bei Körperverletzungsdelikten im Innenstadtbereich um 15 % steigern (Stand: 2024).
Auch ethische Fürsprecher wie Prof. Dr. Alexander Mignon von der Universität Oldenburg fordern eine „verantwortungsbewusste Anwendung“. Es gehe nicht darum, ein Überwachungsregime zu errichten, sondern darum, Technologien zum Schutz der Allgemeinheit klug einzusetzen.
Vorteile in der Diskussion:
- Schnellere Reaktionszeiten bei Gefahrenlagen
- Automatisierte Erkennung verdächtigen Verhaltens
- Entlastung von Polizeikräften und Ressourcen
Dennoch bleibt die Herausforderung bestehen, diese Vorteile mit rechtsstaatlichen und ethischen Prinzipien in Einklang zu bringen.
Kritik und gesellschaftlicher Widerstand
Von Bürgerrechtlern, Datenschützern und Netzaktivisten kommt teils scharfer Gegenwind. Sie warnen vor einer schleichenden Instrumentalisierung der öffentlichen Räume und einer gesellschaftlichen Normalisierung permanenter Überwachung.
Eine repräsentative Studie des Instituts für Technikfolgenabschätzung ITAS (Karlsruhe) aus 2024 zeigt: 47 % der Befragten befürchten einen Rückgang der Privatsphäre im öffentlichen Raum durch smarte Kameras. Unter 30-Jährige lehnen Systeme mit Gesichtserkennung sogar zu über 60 % ab (Institut ITAS, 2024).
Gesellschaftliche Akzeptanz spielt deshalb eine Schlüsselrolle. In einem transparenten Bürgerbeteiligungsprozess im Berliner Bezirk Friedrichshain-Kreuzberg wurde 2023 ein ähnliches Vorhaben nach massiven Protesten gestoppt. Niedersachsen kündigte an, vergleichbare Beteiligungsformate in den Pilotregionen anzustreben.
Wichtige Bedenken im Überblick:
- Fehlende Transparenz bei KI-Entscheidungen (Black Box)
- Unzureichende Aufsicht durch unabhängige Gremien
- Gefahr von Diskriminierung durch algorithmische Verzerrungen
Rechtliche Rahmenbedingungen: Zwischen Sicherheitsgesetz und DSGVO
Die gesetzliche Grundlage für Videoüberwachung mit KI in Deutschland basiert auf einer Mischung aus Bundespolizeigesetz, Landespolizeigesetzen sowie der EU-Datenschutz-Grundverordnung (DSGVO). Niedersachsens Polizei- und Ordnungsbehördengesetz (NPOG) enthält bereits Bestimmungen zur optischen Beobachtung öffentlicher Räume – eine Erweiterung auf KI-gestützte Systeme bedarf jedoch zusätzlicher rechtlicher Absicherungen.
Juristen wie Dr. Thorsten Wetzling vom Berliner Think Tank Stiftung Neue Verantwortung fordern klare gesetzliche Leitlinien: „Es braucht technikneutrale Regelungen und transparente Kontrollmechanismen.“ Auch die EU plant mit ihrer kommenden KI-Verordnung (AI Act) weitreichende europaweite Standards. Sie unterscheidet klar zwischen akzeptablen und verbotenen Anwendungsfällen – Gesichtserkennung im öffentlichen Raum gilt dabei als „hochrisikobehaftet“.
Handlungsempfehlungen für einen verantwortungsvollen Einsatz
Damit KI-gestützte Überwachung gesellschaftlich tragfähig wird, braucht es neben legalen auch ethische und technische Leitplanken. Experten empfehlen folgende Maßnahmen:
- Implementierung externer Kontrollinstanzen zur Überprüfung von Algorithmen und Systementscheidungen
- Realzeit-Transparenz über Einsatzorte, Datenspeicherung und Analyseverfahren
- Technische Maßnahmen gegen Verzerrung (Bias) und Falschalarme, z. B. durch Diversifizierung der Trainingsdaten
Fazit: Zwischen Fortschritt und Verantwortung
Der Fall Niedersachsen zeigt exemplarisch, wie politischer Wille, technologische Machbarkeit und gesellschaftliche Verantwortung aneinandergeraten können. In einer Zeit zunehmender Digitalisierung ist die Integration von KI in bestehende Systeme unausweichlich – sie muss jedoch von demokratischer Kontrolle, rechtlicher Klarheit und offener Debatte begleitet werden.
Ob sich der Ansatz bewährt, wird stark von Transparenz, Beteiligung der Bürgerinnen und Bürger und fortlaufender Evaluation abhängen. Der Dialog bleibt zentral – und genau dort sind auch Sie gefragt: Teilen Sie Ihre Meinung in unserer Tech-Community und diskutieren Sie mit uns über Chancen, Risiken und Alternativen smarter Sicherheitstechnologien.