Künstliche Intelligenz

Copyright-Streits in der KI-Industrie: Der Fall Anthropic

Ein hell erleuchtetes, modernes Büro mit freundlicher Atmosphäre, in dem ein konzentrierter Geschäftsmann vor einem Laptop sitzt und angeregt über komplexe juristische Dokumente und innovative KI-Modelle nachdenkt, während warmes Tageslicht durch große Fenster fällt und die Szene naturnah und cineastisch einfängt.

Ein neuer juristischer Kampf erschüttert die KI-Branche: Die OpenAI-Abspaltung Anthropic steht im Zentrum einer kontroversen Sammelklage wegen mutmaßlicher Urheberrechtsverletzungen. Der Ausgang des Verfahrens könnte nicht nur ein Präzedenzfall sein, sondern auch maßgeblich über die zukünftige Entwicklung generativer KI entscheiden.

Anthropic unter Druck: Worum geht es in der Klage?

Im Juli 2025 reichten mehrere große US-Verlage, darunter The New York Times Company und Hachette Book Group, gemeinsam eine Sammelklage gegen das KI-Startup Anthropic ein. Sie werfen dem Unternehmen vor, urheberrechtlich geschützte Inhalte ohne Lizenz zum Training ihrer Sprachmodelle – insbesondere des Modells Claude 3 – verwendet zu haben.

Die Kläger argumentieren, dass das systematische Scrapen ganzer Inhalte aus Nachrichtenartikeln, E-Books und wissenschaftlichen Arbeiten gegen das US-Copyright-Gesetz verstoße. Laut der Klageschrift, die beim US-Bundesgericht im Southern District of New York eingereicht wurde, soll Anthropic wissentlich Milliarden Worte geschützter Werke genutzt haben, um seine Modelle zu trainieren.

Anthropic hingegen beruft sich – wie viele andere KI-Entwickler – auf das US-Prinzip des „Fair Use“. Dieses erlaubt unter bestimmten Umständen die Nutzung geschützter Inhalte zu Zwecken wie Forschung, Lehre oder Kommentierung, ohne eine explizite Genehmigung einzuholen. Doch ob das auch für das massenhafte Training von KI-Modellen gilt, ist rechtlich umstritten.

Vorwürfe gegen das KI-Startup: Datenquellen und Methoden

Anthropic ist eines der aufstrebendsten Unternehmen im Bereich generativer Künstlicher Intelligenz. Gegründet von ehemaligen OpenAI-Führungskräften, verfolgt die Firma eine Vision sogenannter „verantwortungsvoller KI“. Modelle der Claude-Reihe gelten als Konkurrenz zu OpenAI’s GPT-4 oder Googles Gemini. Doch die Quelle ihrer Trainingsdaten rückt zunehmend ins juristische Fadenkreuz.

Interne Dokumente und Analysen von KI-Experten, darunter der Universitäten Stanford und Berkley, deuten darauf hin, dass Claude-Modelle große Mengen öffentlich zugänglicher, aber dennoch urheberrechtlich geschützter Inhalte verarbeitet haben könnten. Dazu zählen Artikel aus Nachrichtendiensten, Querformate aus Reddit und Stack Overflow, sowie Bücher aus nicht genehmigten Web-Dumps.

Ein Beispiel: Claude soll laut einem Test von MIT Technology Review in der Lage gewesen sein, nahezu wortgetreu Inhalte aus dem Roman „The Testaments“ von Margaret Atwood wiederzugeben. Obwohl nur kurze Prompts verwandt wurden, lieferte das Modell exakte Absätze – ein klarer Hinweis auf die Nutzung eben jenes Werkes im Training.

Der größere Kontext: KI-Industrie zwischen Innovation und Regulierung

Anthropic ist nicht das einzige Unternehmen mit solchen Problemen. Auch OpenAI, Stability AI, Meta und Google stehen unter Beobachtung oder sehen sich mit ähnlichen Verfahren konfrontiert. Die wachsende Zahl von Copyright-Klagen spiegelt einen zentralen Konflikt wider: Innovation trifft auf etablierte Urheberrechtsmechanismen.

Nach einer Untersuchung des Pew Research Center aus Anfang 2025 wünscht sich eine Mehrheit der US-Bürger (62 %), dass KI-Entwickler die Lizenzrechte von Urhebern respektieren und entsprechend vergüten. Gleichzeitig zeigt eine Statista-Analyse von April 2025, dass über 74 % der trainierten KI-Daten aus öffentlich zugänglichen Internetquellen stammen – ein Großteil davon ohne klare rechtliche Freigabe.

Die Klage gegen Anthropic reiht sich ein in eine zunehmende Regulierungsbewegung weltweit: In der EU wurde im Juni 2025 die finale Fassung des AI Act verabschiedet, der unter anderem Transparenzpflichten bei verwendetem Trainingsmaterial vorsieht. In den USA wurde im Frühjahr 2025 ein Gesetzentwurf im Kongress eingebracht, der eine Registrierung aller warentechnischen KI-Modelle inklusive ihrer Datenquellen verlangt.

Juristen sehen die Verfahren als Chance, lang bestehende Graubereiche im Urheberrechtsgesetz zu klären. Zugleich sorgt die rechtliche Unsicherheit für einen Innovationsstau, wie verschiedene KI-Startups in einer offenen Petition im Mai 2025 beklagten.

Reaktionen aus der Branche: Wer unterstützt wen?

Die Reaktionen auf die Sammelklage gegen Anthropic sind gespalten. Einige in der Tech-Community argumentieren, dass zu restriktive Rechtsprechung den Fortschritt der Technologie ausbremse. Andere betonen die Rechte von Künstler:innen, Autor:innen und Journalist:innen, deren Werke ohne Zustimmung ausgenutzt werden.

So erklärte der CEO von Penguin Random House, Markus Dohle, im Gespräch mit dem „Wall Street Journal“: „Es geht nicht nur um Inhalte oder Geld. Es geht um das fundamentale Verhältnis zwischen Mensch und Maschine.“

Zugleich tritt nun auch die Autorenvereinigung Authors Guild als Nebenkläger auf. Sie vertritt mehrere prominente Schriftstellerinnen, darunter Nora Roberts, Dan Brown und Roxane Gay. Deren Werke seien ebenfalls von Claude punktuell oder vollständig wiedergegeben worden – eine Verletzung sowohl moralischer als auch materieller Rechte der Urheber.

Technologische Grundlagen: Warum ist Urheberrecht in KI so schwer durchzusetzen?

Das Problem liegt in der Funktionsweise sogenannter LLMs (Large Language Models). Diese verinnerlichen, komprimieren und generalisieren statistische Wahrscheinlichkeiten aus Textdaten. Dabei ist es technisch schwer nachvollziehbar, ob und wie exakt ein konkretes Werk reproduziert wird: Ist eine Passage reiner Zufall – oder ein getreues Echo geschützter Inhalte?

Praktisch führen diese Unsicherheiten zu folgender Situation: Entwickler trainieren ihre Modelle auf breitem Internetkorpus, oft ohne präzise Kenntnis der Lizenzlage. Output-Inhalte werden überprüft, jedoch häufig nicht systematisch auf Urheberrechtskonformität geprüft – ein Exploit, den einige KI-Unternehmen gezielt in Kauf nehmen.

Folgen für die KI-Industrie: Was steht auf dem Spiel?

Die potenziellen Konsequenzen der Sammelklage gegen Anthropic sind weitreichend. Sollte das Gericht zugunsten der Kläger entscheiden, könnte das Modelle betreffen, die heute millionenfach genutzt werden. Darüber hinaus ständen Rückforderungen, Lizenzkostennachzahlungen oder sogar vorübergehende Nutzungssperren im Raum.

Nach Zahlen des Marktforschungsunternehmens IDC lag das globale Marktvolumen für generative KI 2024 bei rund 45 Milliarden US-Dollar – bis 2030 wird ein Anstieg auf über 200 Milliarden US-Dollar prognostiziert. Urheberrechtsstreitigkeiten könnten dieser Entwicklung einen empfindlichen Dämpfer versetzen oder sie in neue, lizenzbasierte Geschäftsmodelle überführen.

Betroffen wären nicht nur große Anbieter. Auch viele Startups bauen auf Foundation Models auf, die wiederum Claude, GPT oder Lama als Plattform nutzen. Ein juristisch fundierter Stopp oder erhebliche Auflagen könnten sie zum Umdenken – oder zur Aufgabe – zwingen.

Drei Handlungsempfehlungen für Unternehmen und Entwickler

  • Transparenz durch Dokumentation: Halten Sie akribisch fest, welche Datenquellen in Ihre Trainingsdaten einfließen und mit welchen Rechten sie ausgestattet sind.
  • Lizenzen abklären: Greifen Sie bevorzugt auf Werke mit explizit freigegebenen Rechten zurück – etwa aus der Creative Commons oder durch Direktlizenzen mit Verlagen und Content-Schaffenden.
  • Modelle auditieren: Integrieren Sie Routinen zur Prüfung von Outputs auf mögliche Copyright-Verletzungen – insbesondere bei produktiven Anwendungen in Publishing oder Marketing.

Ein Wendepunkt für KI und Recht?

Der Fall Anthropic markiert möglicherweise eine Zäsur für die gesamte KI-Industrie. Nicht nur rechtlich, sondern auch ethisch. Wie lässt sich Innovation mit Fairness und Urheberrecht vereinen? In seinem Kern stellt der Prozess eine der drängendsten Fragen des digitalen Zeitalters.

Entscheidungen in New York könnten globale Folgen haben – für Entwickler, Unternehmen, Politik und die Gesellschaft. Umso wichtiger ist es, dass der Diskurs offen, faktenbasiert und partizipativ geführt wird.

Ihre Meinung ist gefragt: Welche Lösungen sehen Sie als Chance, Technik und Urheberrecht in Einklang zu bringen? Diskutieren Sie mit uns in den Kommentaren oder auf unseren Social-Media-Kanälen.

Schreibe einen Kommentar