Fast jede Interaktion mit einem KI-basierten Chatbot basiert auf der unsichtbaren Arbeit tausender Menschen – sogenannter KI-Trainer:innen. Ihre Geschichten offenbaren nicht nur ein erschütterndes Maß an Prekarität, sondern auch substanzielle Zweifel daran, wie zuverlässig und ethisch heutige KI-Systeme wirklich sind.
Zwischen Klicks und Kognition: Wer KI wirklich trainiert
Der Trend zur generativen Künstlichen Intelligenz hat seit der Einführung von ChatGPT im Jahr 2022 eine neue Welle an Automatisierung eingeleitet. Hinter dem scheinbar selbstständig agierenden System stehen jedoch häufig schlecht bezahlte Arbeitskräfte, die Texte klassifizieren, Inhalte annotieren oder sogar schädliche bzw. illegale Aussagen von KI-Systemen „entlernen“. Diese Human-in-the-Loop-Prozesse sind essenziell, werden aber in der öffentlichen Wahrnehmung kaum thematisiert.
Eine im Januar 2024 von Oxford Internet Institute veröffentlichte Studie zeigt, dass rund 94 % der für KI-Trainingsaufgaben Beschäftigten in Ländern mit niedrigem oder mittlerem Einkommen arbeiten. Plattformen wie Amazon Mechanical Turk oder Appen beschäftigen zehntausende Clickworker weltweit. Dabei erhalten viele weniger als den ortsüblichen Mindestlohn für hochspezialisierte Aufgaben wie Hate-Speech-Erkennung oder Sprachmodellanpassung.
Eine ehemalige Datenannotatorin aus Nairobi, die anonym bleiben möchte, berichtet im Interview: „Wir mussten rund acht Stunden täglich Hassreden, Gewaltvideos oder Verschwörungstexte sichten, ohne psychologische Unterstützung. Und der Stundenlohn lag bei etwa 1,80 US-Dollar.“
Warum erfahrene KI-Trainer:innen von Chatbots abraten
Der zunehmende Einsatz von KI in sensiblen Bereichen wie Kundenservice, medizinische Beratung oder Bildung führt laut Expert:innen zu einer gefährlichen Verschiebung der Verantwortung. „Viele Chatbots wirken kompetent – sie halluzinieren aber oft überzeugend falsche Inhalte“, warnt Dr. Clara Meinhardt, Informatikerin an der TU München. Diese Halluzinationen seien ein strukturelles Problem derzeitiger Large Language Models (LLMs) wie GPT-4 oder Claude 3.
Auch die Perspektive der Trainer:innen selbst ist kritisch. Viele berichten davon, dass bestimmte ethische Grenzfälle von Unternehmen bewusst an sie delegiert werden, um regulatorische Verantwortung zu vermeiden. So beschreibt der KI-Trainer und Ethikberater Lukas Neuweiler in einem Fachbeitrag für AlgorithmWatch, dass „die Entscheidungen, ob ein Output gefährlich, diskriminierend oder akzeptabel sei, bei unterbezahlten Annotator:innen landeten – ohne juristischen oder sozialen Schutz“.
Diese strukturelle Verantwortungslücke gefährdet letztlich die Zuverlässigkeit der Systeme. Denn epistemische Unsicherheiten – also Unklarheiten über die Güte und Herkunft von Trainingsdaten – bleiben durch den fragmentierten Arbeitsprozess verborgen.
Undurchsichtige Unternehmenspraxis behindert Qualitätssicherung
Ein Kritikpunkt, den viele Interviewte teilen: Die Intransparenz von Tech-Giganten wie OpenAI, Meta und Google. Selten wird offengelegt, woher genau die Trainingsdaten stammen, nach welchen Kriterien sie kuratiert wurden und wer das finale Qualitätslabeling vorgenommen hat.
Ein Bericht der NGO Foxglove Legal aus dem Jahr 2023 offenlegte, dass OpenAI zur Moderation von ChatGPT-3.5 im Auftrag Subunternehmen in Kenia beschäftigte, die psychisch belastende Inhalte sichteten, ohne über die langfristige Auswirkung dieses Extremcontents aufgeklärt zu werden. Solche Praktiken erinnern zunehmend an Outsourcing-Strategien der Textil- oder Techindustrie früherer Jahrzehnte – nur mit der Komplexität digitaler Verantwortung.
Diese fragmentierte Wertschöpfungskette macht gezielte Qualitätskontrolle und ethische Zertifizierung nahezu unmöglich. Das wiederum verstärkt das Vertrauen in systemische Vorurteile der KI-Modelle: rassistische oder sexistische Verzerrungen bleiben bestehen, weil unklare Annotationen in den Trainingsdatasets nicht zuverlässig identifiziert oder entfernt werden können.
Kritik an der Geschwindigkeit des KI-Fortschritts
Ein weiterer Aspekt, den viele KI-Trainer:innen teilen: der immense Entwicklungsdruck. „Wir hatten nicht genug Zeit, um gründlich zu labeln“, sagt Mila*, eine ehemalige Contributorin bei Appen. „Manchmal galten politische Aussagen als neutral am Morgen – und waren am Abend flaggable Content.“ Der Bewertungsmaßstab sei konstant verändert worden, um mit dem Produktentwicklungszyklus Schritt zu halten.
Dieser Produktdruck zeigt sich auch auf Unternehmensebene: KI-Firmen konkurrieren um Marktanteile, schneller als je zuvor. Der globale Umsatz aus Sprachmodellplattformen wie ChatGPT, Gemini oder Claude soll laut IDC bis 2025 auf 37,5 Milliarden US-Dollar steigen – ein zehnfacher Anstieg im Vergleich zu 2021.
Doch was nützen schnelle Fortschritte, wenn die Nachhaltigkeit, die Fairness und der Schutz der Menschen hinter der KI nicht mitwachsen? Diese Frage stellen sich nicht nur Human Rights Watch und andere Organisationen, sondern zunehmend auch Entwickler:innen innerhalb der Tech-Firmen selbst.
Was Regulierungsinitiativen bislang leisten – und wo sie versagen
Mit dem EU AI Act hat die Europäische Union erste klare Regulierungsmaßnahmen entworfen, insbesondere für KI-Systeme mit hohem Risiko. Die Richtlinie fordert unter anderem Transparenz zu den Datenquellen, menschenzentrierte Kontrolle sowie klare Rechenschaftspflichten für Anbieter:innen solcher Systeme.
Und dennoch: Auf globaler Ebene fehlt eine einheitliche Regelung. Während Europa eher präventiv reguliert, verfolgt die USA ein marktbasierteres Modell. China hingegen treibt staatlich zentralisierte KI-Entwicklung unter materiell besseren Bedingungen voran, unterliegt aber gleichzeitig staatlicher Zensur.
„Ohne verbindliche Standards zur Arbeitsethik in der Trainingsphase riskieren wir, die gleiche Ungerechtigkeitsschiene zu betreten wie in anderen ausgelagerten Industrien“, so die Ethikforscherin Dr. Mayra Lang.
Handlungsempfehlungen: Was Unternehmen und Nutzer:innen tun können
- Nachhaltige KI-Strategien entwickeln: Unternehmen sollten verpflichtend Audit-Prozesse implementieren, die sowohl ethische Standards für Trainingsarbeiten als auch technische Qualitätssicherung integrieren.
- Arbeit transparent machen: Die Herkunft und Art der Annotationen – und wer sie durchführt – sollten offen offengelegt werden. Dies stärkt das Vertrauen in die Systeme und gibt betroffenen Arbeitskräften Sichtbarkeit.
- Chatbots kritisch testen und validieren: Nutzer:innen sollten sich nicht auf vermeintlich allwissende KI-Systeme verlassen. Bei medizinischen, rechtlichen oder emotional belastenden Themen ist Vorsicht geboten. Externe Validierung durch Fachpersonen bleibt essenziell.
Fazit: Menschliche Verantwortung bleibt unersetzlich
Die Faszination für KI und Chatbots blendet oft aus, dass kein System neutral ist – und dass ein großer Teil der technologischen Intelligenz aus menschlicher Arbeit, Einschätzung und Fürsorge besteht. Wer KI ethisch nutzen will, muss die Lebensrealitäten der Menschen berücksichtigen, die sie mittrainieren.
Gerade in einem Zeitalter, das algorithmische Effizienz über alles zu stellen scheint, erinnern uns KI-Trainer:innen eindringlich daran, dass technologische Fortschritte Grenzen brauchen. Diese Grenzen sollten nicht von monetären Zielen, sondern von menschlicher Würde definiert werden.
Wie erleben Sie KI-Systeme im Alltag? Tauschen Sie Ihre Erfahrungen in den Kommentaren mit unserer Community aus – und machen Sie die unsichtbare Arbeit sichtbarer.




