Künstliche Intelligenz

Die Zukunft der Clickworker in der KI-Entwicklung: Ein auslaufendes Modell?

Eine lichtdurchflutete, lebendige Büroszene mit engagierten Menschen unterschiedlicher Herkunft, die konzentriert vor Laptops sitzen und in natürlichem Tageslicht konzentriert Daten markieren, während warme Farbtöne und ein freundliches Miteinander Optimismus und den Wandel in der Welt der KI-Datenannotation einfangen.

Millionen Menschen weltweit leisten stille Pionierarbeit für die Künstliche Intelligenz. Sie klicken, markieren, labeln – und trainieren damit Modelle, die längst in unseren Alltag vorgedrungen sind. Doch wie lange noch? Neue Strategien großer Akteure wie xAI deuten auf einen strukturellen Wandel hin.

Clickwork in der KI: Fundament der Intelligenz

Clickwork – also das manuelle Taggen und Klassifizieren von Daten – bildet seit Jahren das Rückgrat vieler KI-Trainingsprozesse. Ohne diese annotierten Datensätze wären moderne neuronale Netze in Bereichen wie Natural Language Processing, Bilderkennung oder automatisierte Sprachausgabe buchstäblich blind. Clickworker arbeiten meist über Plattformen wie Amazon Mechanical Turk, Appen oder Scale AI. Ihre Aufgaben reichen vom Markieren von Verkehrsschildern auf Fotos über Transkriptionsarbeit bis hin zum inhaltlichen Bewerten generierter Texte.

Laut einer Studie der Universität Oxford aus dem Jahr 2023 verbringen weltweit schätzungsweise 20 Millionen Menschen zumindest gelegentlich Zeit mit mikrostrukturierter Datenannotation. Dabei sind viele auf den Verdienst angewiesen: Besonders im globalen Süden entwickelt sich Clickwork zur Einkommensquelle, trotz oft prekärer Arbeitsbedingungen.

Wachsende KI-Modelle, sinkender Bedarf an Klickarbeit?

So wichtig die Arbeit der Clickworker in vergangenen Jahren war – aktuell verschiebt sich der Markt. Unternehmen wie OpenAI, Google DeepMind oder xAI verfolgen zunehmend Strategien, die menschliche Annotation minimieren oder standardisieren. Besonders auffällig ist der Kurs von Elon Musks xAI. In einem öffentlichen Statement im Juni 2024 betonte das Unternehmen, dass man statt klassischer Clickwork auf skalierbare, synthetische Datengenerierung sowie auf sogenannte “reward modeling mit Expertenfeedback” setze.

Damit folgt xAI einem Trend: Laut dem Branchenbericht „State of AI 2024“ des Londoner Unternehmens Air Street Capital verwenden inzwischen 67 % aller großen KI-Projekte synthetisch generierte oder halbautomatisch gereinigte Trainingsdaten, deutlich mehr als noch 42 % im Jahr 2022. Zudem steigt die Nachfrage nach Small Language Models (SLMs) mit Domänenfokus, die besser kuratierte, aber kleinere Datensätze benötigen – oft komplett ohne Clickwork.

Arbeitsrechtliche Dimension: Die Schattenseite der Skalierung

Dr. Hannah Kusch, Arbeitsrechtlerin und Senior Researcher am Institut für Digitale Arbeit in Bremen, warnt vor einem „unanständig leisen Ausstieg“ vieler Plattformen aus der Verantwortung: „Wir sehen schon jetzt, dass Clickworker zunehmend durch technologische Lösungen marginalisiert werden, ohne dass für sie tragfähige Übergänge geschaffen werden.“ Besonders kritisch sei, dass viele Clickworker über keine formale Festanstellung, keinen Kündigungsschutz oder Mindestlohn verfügen – und bei strategischen Kurswechseln ihrer Auftraggeber von einem Tag auf den anderen keine Einkommensquelle mehr haben.

Länder wie Deutschland oder Frankreich regulieren Clickwork stärker, aber viele Plattformen verlagern Aufgaben gezielt in Staaten mit geringerem Schutzstandard. Laut Fairwork, einem Projekt der Oxford Internet Institute, erfüllen im Jahr 2024 nur drei von zwanzig getesteten Clickwork-Plattformen weltweit grundlegende Arbeitsrechte wie Mindestlohn und Transparenz.

xAI und der Bruch mit der Clickworker-Logik

xAI strebt nicht nur technische Exzellenz an, sondern verfolgt erklärtermaßen eine ideologisch getriebene Unabhängigkeit von „menschlicher Verzerrung im Training“ – also auch von den Werturteilen anonymer Clickworker. Stattdessen experimentiert das Unternehmen mit Closed-Loop Systemen, bei denen eigene Modelle synthetisch Daten erzeugen, bewerten und wiederverwerten.

Das Ziel: maximale Konsistenz, Kontrolle und Effizienz. Experten wie Dr. Florian Albrecht, Chief Data Officer bei einem deutschen KI-Startup im Bereich Legal Tech, sehen darin jedoch auch Risiken: „Ganz ohne menschliche Annotation entwickeln Modelle eine Tendenz zur Echokammereffekt. Evaluation durch Fachexperten ist teuer, aber notwendig – gerade in Hochrisikodomänen.“ Der Bruch mit dem Clickworker-Modell sei daher zwar wirtschaftlich attraktiv, aber nicht zwangsläufig qualitätsfördernd.

Wie Clickworker ihre Rolle neu erfinden könnten

Trotz des rückläufigen Volumens einfacher KI-Annotationen gibt es unter bestimmten Bedingungen durchaus Zukunftsperspektiven für Clickworker. Vorausgesetzt, Anerkennung, Qualifizierung und faire Bezahlung rücken stärker in den Fokus:

  • Upskilling statt einfache Tasks: Anbieter und Plattformen sollten Clickworkern Schulungsmaterialien für höherwertige Aufgaben zur Verfügung stellen – etwa für das Bewerten komplexer Sprachmodelle oder die Annotation domänenspezifischer Fachinhalte (z. B. medizinische Texte).
  • Kooperative Plattformen fördern: Modelle wie Daemo oder TurkerNation zeigen: Wenn Clickworker Mitspracherechte und Arbeitsrechtsschutz erhalten, steigt die durchschnittliche Qualität der Daten – und das Vertrauen der Entwickler.
  • Regionale Vernetzung stärken: Lokale oder staatlich geförderte Community-Netzwerke könnten dazu beitragen, Clickwork jenseits globaler Plattformlogiken mit Bildungsangeboten und Beratungsstellen zu kombinieren.

Globales Datenethos: Automatisierung braucht Verantwortung

Die zunehmende Automatisierung von Annotationprozessen ist unaufhaltsam – doch sie sollte ethisch eingebettet sein. Der „AI Index Report 2025“ der Stanford University stellt fest, dass 81 % der evaluierten KI-Produkte bereits synthetische Trainingsdaten nutzen, davon wiederum 50 % ohne jegliche externe Validierung durch Menschen. Diese Entwicklung birgt das Risiko, dass KI-Modelle Fehler verstärken und gesellschaftliche Bias reproduzieren, wenn sie nicht regelmäßig durch echte menschliche Bewertung gespiegelt werden.

Politische Initiativen könnten hier steuernd eingreifen. Die in der EU ab 2025 verbindliche KI-Verordnung enthält zumindest Ansätze, um Trainingsdaten auf Fairness und Nachvollziehbarkeit zu prüfen – verbunden mit Sanktionsmöglichkeiten für Verstöße. Auch Projekte wie „Data Nutrition Project“ aus den USA versuchen, systematische Standards für Datenqualität zu etablieren.

Fazit: Das Ende des Clickworking – oder der Anfang einer neuen Rolle?

Der klassische Clickworker – anonym, unterbezahlt, austauschbar – scheint ein Auslaufmodell zu sein. Doch sobald KI-Systeme in kritischen Kontexten agieren sollen, bleibt die sorgfältige, menschlich getriebene Dateneinordnung unerlässlich. Unternehmen, Politik und Plattformen stehen deshalb in der Verantwortung, neue Arbeitsmodelle für datenbezogene Tätigkeiten zu schaffen – mit mehr Transparenz, Qualifizierung und Teilhabe.

Die Community ist gefragt: Haben Sie selbst Erfahrungen mit Clickwork? Arbeiten Sie an neuen Formen der Human-in-the-Loop-Modellierung? Diskutieren Sie mit uns: Wie sieht die faire, nachhaltige Zukunft der Datenarbeit aus?

Schreibe einen Kommentar