Künstliche Intelligenz

Herausforderungen der Fairness: KIs im Einsatz bei Sozialhilfe in Amsterdam

Eine warm beleuchtete, natürliche Szene in einem modernen städtischen Verwaltungsbüro in Amsterdam, in der eine diverse Gruppe von Mitarbeitenden bei einem Gespräch über datenbasierte Entscheidungen zusammenkommt – freundlich, reflektierend und menschlich, mit sanftem Tageslicht, das Hoffnung und die Bedeutung sozialer Gerechtigkeit ausstrahlt.

Wie kann künstliche Intelligenz effizient und gerecht in der öffentlichen Verwaltung eingesetzt werden? Ein gescheitertes KI-Projekt in Amsterdam zeigt auf drastische Weise, welche Risiken mit automatisierter Entscheidungsfindung einhergehen – insbesondere für sozial benachteiligte Gruppen. In diesem Artikel beleuchten wir die Hintergründe, Herausforderungen und die Lehren aus einem System, das mehr Schaden als Nutzen verursacht hat.

Ein ambitioniertes Projekt mit sozialen Folgen

Im Jahr 2017 begann die Stadt Amsterdam mit der Entwicklung eines KI-gestützten Systems zur Betrugserkennung in der Sozialhilfe. Ziel war es, Auffälligkeiten in Sozialhilfeanträgen effizienter zu identifizieren und Ressourcen gezielt einzusetzen. Das Projekt war Teil einer größeren Digitalisierungsstrategie der niederländischen Regierung, mit dem erklärten Ziel, Verwaltungsvorgänge zu modernisieren und die öffentliche Integrität zu stärken.

Basis des Systems war ein Algorithmus, der mithilfe von Machine Learning Anträge und Verhaltensmuster analysierte, um potenziell betrügerisches Verhalten zu ermitteln. Dabei griff die KI auf umfangreiche Datenquellen zurück – etwa Wohnadresse, Haushaltskonstellation, vergangene Sozialfallakten, sogar soziale Netzwerke und Sprachmuster. Die Entscheidung, welche Fälle geprüft werden sollten, sollte automatisch und ohne menschliches Zutun erfolgen.

Algorithmen unter Beschuss

Doch schon kurz nach dem Roll-out 2018 schlugen Datenschutz- und Grundrechtsexperten Alarm. Der Hauptkritikpunkt: Das Modell diskriminierte bestimmte Bevölkerungsgruppen, insbesondere Migranten, Menschen mit geringem Einkommen oder aus bestimmten Stadtteilen wie Zuidoost, einem sozial schwächeren Bezirk Amsterdams. Die Logik war oft intransparent und nicht nachvollziehbar – weder für Betroffene noch für Mitarbeitende der Verwaltung.

Ein entscheidender Wendepunkt war der sogenannte „SyRI-Fall“ (Systeem Risico Indicatie): Ein ähnliches KI-System zur Risikobewertung von Sozialbetrug wurde 2020 vom niederländischen Gericht verboten, da es gegen grundlegende Menschenrechte und Datenschutzgesetze verstieß. In diesem Kontext geriet auch das Amsterdamer Projekt zunehmend unter Druck.

Im Jahr 2021 entschied die Stadt schließlich, das System vollständig abzuschalten. Der offizielle Grund lautete: mangelnde Transparenz, fehlende Kontrolle durch Menschen und das hohe Risiko für diskriminierende Entscheidungen.

Fehlende Fairness – strukturelle Probleme in KI-Systemen

Das Beispiel Amsterdam ist kein Einzelfall. Viele algorithmische Systeme, die in der öffentlichen Verwaltung zum Einsatz kommen, stehen vor denselben Problemen: Datenbias, mangelnde Nachvollziehbarkeit, fehlende demokratische Kontrolle. Eine Untersuchung der Research and Documentation Centre (WODC) in den Niederlanden ergab, dass in 7 von 10 untersuchten KI-Projekten der öffentlichen Hand keine ausreichenden Prüfmechanismen für Fairness existierten.

Laut einer Studie der Algorithmic Justice League (2022) weisen 43 % der getesteten öffentlichen KI-Systeme signifikante Verzerrungen gegenüber ethnischen Minderheiten oder sozioökonomisch benachteiligten Gruppen auf. Dieses Problem ist systematisch – nicht individuell, sondern strukturell eingebaut in die Daten und Trainingsmethoden.

Betroffene im Mittelpunkt: Persönliche Schicksale

Die negativen Auswirkungen sind konkret. In Amsterdam meldeten sich über 200 Bürger:innen bei der Ombudsstelle der Stadt, weil sie fälschlich als verdächtig eingestuft wurden – teilweise mit schwerwiegenden Folgen. Mehrwöchige Verzögerungen bei Auszahlungen, Kontrollbesuche im privaten Umfeld oder die kurzfristige Sperrung von Leistungen führten zu existenziellen Herausforderungen.

Betroffene berichteten in Interviews von Gefühlen der Ohnmacht, ausgelöst durch eine anonyme, algorithmisch gesteuerte Entscheidungsinstanz. Besonders dramatisch war der Fall einer alleinerziehenden Mutter, der die Leistungen gekürzt wurden, weil ihr Bruder gelegentlich ihre Kinder betreute – etwas, das vom System als Indikator für potenziellen Leistungsbetrug gewertet wurde.

Wissenschaftliche Einordnung und Expertenmeinungen

„Viele dieser Systeme operieren auf Basis historischer Daten, die oft selbst bereits diskriminierende Strukturen abbilden“, erklärt Dr. Tina van der Linden, Professorin für Recht und Digital Governance an der Vrije Universiteit Amsterdam. „Wenn diese Daten unkritisch übernommen werden, reproduziert die KI strukturelle Diskriminierung.“

Auch der deutsche Ethikrat kritisierte in einem Positionspapier 2023 den „voreiligen Einsatz algorithmischer Systeme im behördlichen Kontext ohne ausreichende Folgenabschätzung“. Laut dem Gremium ist es ethisch nicht vertretbar, Entscheidungen über das Lebensgrundlagen von Menschen an intransparente automatisierte Systeme zu delegieren.

Eine Evaluierung des Amsterdamer Projekts durch das Rathenau Institute (2022) identifizierte folgende Hauptmängel:

  • Fehlende externe Kontrolle der Modellarchitektur
  • Intransparente Datenquellen und mangelnde Nachvollziehbarkeit
  • Keine Mechanismen zur Beschwerde oder Einspruch gegen KI-Entscheidungen

Das Fazit: Technologisch ambitioniert – sozial und rechtlich nicht tragfähig.

Was wir aus dem Fall lernen können

Der gescheiterte KI-Einsatz in Amsterdam liefert wertvolle Erkenntnisse für zukünftige Projekte. Fairness in KI ist keine rein technologische Frage, sondern eine ethisch-politische. Es braucht klare Leitlinien, interdisziplinäre Zusammenarbeit und echte Teilhabe der betroffenen Bevölkerung.

  • Transparenz von Anfang an: KI-Systeme im öffentlichen Sektor müssen offenlegen, auf welchen Daten und Kriterien ihre Entscheidungen beruhen. Open Source-Ansätze fördern das Vertrauen und die Nachvollziehbarkeit.
  • Human-in-the-Loop-Prinzip: Menschen dürfen nicht vollständig von der Entscheidungsfindung ausgeschlossen werden. Kritische Prüfungen durch Sachbearbeitende müssen verpflichtend integriert sein.
  • Kontinuierliche Bias-Audits: Algorithmen benötigen regelmäßige Prüfungen durch unabhängige Stellen, um unerwünschte Diskriminierungen aufzudecken und zu beheben.

Internationale Vergleiche – wo KI besser funktioniert

Vergleichbare Systeme in Kanada oder Finnland setzen auf Transparenz-Standards und binden zivilgesellschaftliche Organisationen aktiv in den Designprozess ein. In Helsinki etwa wird jede öffentlich eingesetzte KI in einem Transparenzregister offengelegt inkl. Datenherkunft, technischer Spezifikation und Einspruchsmöglichkeiten für Bürger:innen.

Schon 2022 verabschiedete die Stadt Toronto einen Algorithmic Transparency Framework, das jede städtische KI-Anwendung auf mehrere Fairness-Indikatoren prüft. Solche „Best Practices“ könnten auch für EU-Städte wie Amsterdam oder Berlin Vorbild sein – nicht zuletzt angesichts der geplanten Umsetzung des EU AI Act ab 2026, der klare Anforderungen an Risikobewertungen und Transparenz stellt.

Fazit: Technologie braucht Gemeinwohlorientierung

Künstliche Intelligenz hat das Potenzial, öffentliche Dienstleistungen effizienter und zielgerichteter zu gestalten – doch nur, wenn sie auf der Basis von Gerechtigkeit, Transparenz und demokratischer Kontrolle entwickelt wird.

Der Fall Amsterdam ist eine Mahnung: Automatisierung darf nie Selbstzweck sein. Die soziale Verantwortung muss stets im Zentrum stehen, besonders wenn es um verletzliche Bevölkerungsgruppen geht. Der technologische Fortschritt darf die Grundrechte nicht aushöhlen, sondern muss ihnen dienen.

Welche Erfahrungen habt ihr mit algorithmischen Entscheidungen im Alltag gemacht? Welche Standards haltet ihr für unverzichtbar im Umgang mit KI in der Verwaltung? Diskutiert mit uns in den Kommentaren oder auf unseren sozialen Kanälen – denn nur gemeinsam können wir eine faire digitale Zukunft gestalten.

Schreibe einen Kommentar