Die rasante Entwicklung generativer KI stellt nicht nur technische, sondern zunehmend auch rechtliche und ethische Fragen. Im Zentrum: die Nutzung journalistischer Inhalte zum Training von KI-Modellen. Der Streit zwischen der New York Times und der KI-Suchmaschine Perplexity zeigt exemplarisch, wie stark derzeit die Fronten zwischen Medienhäusern und Tech-Unternehmen verhärtet sind.
Der Fall New York Times vs. Perplexity: Ein Präzedenzfall?
Im Juni 2024 sorgte ein investigativer Bericht von Wired für Aufsehen: Die generative KI-Suchmaschine Perplexity AI soll Inhalte aus Artikeln der New York Times ohne ausreichende Lizenzierung und Quellenangabe verwendet haben – in einigen Fällen offenbar direkt aus Premium-Bereichen hinter einer Paywall. Die Times reichte daraufhin Klage wegen Urheberrechtsverletzung und „systematischer Ausbeutung journalistischer Inhalte“ ein.
Perplexity, ein aufstrebender Anbieter im Bereich KI-basierter Antworten auf natürliche Spracheingabe, weist die Vorwürfe zurück und verweist auf „fair use“-Prinzipien im US-amerikanischen Urheberrecht. Doch ob diese Ausnahmeregelungen wirklich auf KI-Trainingsdaten zutreffen, ist unter Juristen hoch umstritten.
Der Ausgang dieses Verfahrens wird womöglich richtungsweisend für eine ganze Branche sein – insbesondere, da bereits ähnliche Verfahren anhängig sind. Die Times führte bereits 2023 eine vergleichbare Klage gegen OpenAI, ebenfalls wegen der Verwendung ihrer Inhalte beim Training großer Sprachmodelle (LLMs).
Zwischen Fair Use und Leistungsschutz: Der unklare rechtliche Rahmen
Das Urheberrecht war nie für KI gedacht – und genau das wird jetzt zum Problem. Im aktuellen Rechtsrahmen der USA erlaubt die Fair-Use-Doktrin eine eingeschränkte Nutzung fremder Inhalte ohne Genehmigung, etwa zu Zwecken der Bildung, Forschung oder Satire. Ob das Trainingsmaterial generativer KI-Modelle unter diese Definition fällt, ist jedoch nicht abschließend geklärt.
Insbesondere in der EU – mit der DSM-Richtlinie (EU) 2019/790 – gelten strengere Regeln: Text- und Datamining ist hier zwar grundsätzlich erlaubt, jedoch nur bei offen zugänglichem Material oder wenn der Rechteinhaber explizit zustimmt. Verlage und Kreative können mithilfe von „opt-out“-Mechanismen wie machine-readable Licensing-Tags der Nutzung widersprechen. In der Praxis bleibt jedoch unklar, wie konsequent Tech-Unternehmen solche Signale berücksichtigen.
Mit der jüngsten KI-Verordnung der EU (KI-Act), endgültig beschlossen 2024, werden Transparenzpflichten gegenüber Trainingsdaten zwar gestärkt, doch konkrete Sanktionen bei der missbräuchlichen Verwendung geschützter Inhalte fehlen bislang weitgehend.
OpenAI, Meta & Co.: Lizenzstrategien und neue Allianzen
Angesichts wachsender Kritik setzen einige Anbieter inzwischen auf proaktive Lizenzdeals. OpenAI kooperiert seit 2023 mit Verlagen wie Axel Springer, Associated Press und Le Monde. Die Vereinbarungen sehen Millionenzahlungen für die Nutzung journalistischer Inhalte im KI-Training und zur Integration in ChatGPT vor. Auch Meta befindet sich Berichten zufolge in Gesprächen mit mehreren Medienhäusern, darunter Condé Nast, Reuters und die Washington Post.
Solche Deals sollen nicht nur rechtliche Risiken minimieren, sondern auch Reputationsverluste vermeiden. Denn in der öffentlichen Debatte gewinnt das Thema „digitale Ausbeutung“ medialer Inhalte durch KI-Modelle zunehmend Relevanz. Eine Umfrage des Pew Research Center von April 2024 zeigt: 78 % der befragten US-Amerikaner befürworten eine gesetzliche Vergütungspflicht für journalistische Inhalte, die von KI verwendet werden (Quelle: Pew Research Center).
Ethisch fragwürdig: Wenn KI die Urheberschaft verschleiert
Über die juristischen Fragen hinaus stehen auch ethische Aspekte im Raum. Generative KI-Modelle geben oft Informationen wieder, die sie aus Quellen wie Artikeln, Forenbeiträgen oder sozialen Medien bezogen haben – ohne dass die Ursprungsquelle genannt oder nachvollziehbar wäre. Das führt nicht nur zu sinkendem Traffic bei Medienportalen, sondern wirft auch die Frage nach Transparenz und Quellenverantwortung auf.
Die New York Times warf Perplexity unter anderem vor, dass deren KI keine klaren Quellenangaben liefere – im Gegensatz etwa zu Perplexitys größeren Konkurrenten wie You.com oder Bing Chat, die zumindest in manchen Fällen Fußnoten oder Links setzen. Der Mangel an Attribution gefährdet langfristig das journalistische Ökosystem, das auf Sichtbarkeit und Monetarisierung durch Leserzugriffe angewiesen ist.
Der Medienwissenschaftler Prof. Dr. Bernhard Pörksen warnt davor, dass mit solchen Modellen ein „epistemisches Parasitentum“ entstehe: KI-Modelle leben von den Inhalten anderer, ohne eigene Recherche, Verantwortung oder Rechenschaft.
Wer zahlt für den Content der Zukunft?
Während Tech-Unternehmen Milliardenwerte mit KI-generierten Antworten schaffen, bleibt die Einnahmesituation auf Verlagsseite prekär. Laut einer Analyse des Reuters Institute sank der Anteil der Menschen, die Nachrichten direkt bei Verlagshomepages konsumieren, weltweit um 10 % zwischen 2021 und 2024 (Quelle: Reuters Institute Digital News Report 2024). Immer häufiger gelangen Nutzer über externe Plattformen, Suchmaschinen oder KI-Interfaces zu fragmentierten Informationshäppchen.
Die Konsequenz: Bezahlmodelle brechen weg, Markenbindung geht verloren, und journalistische Qualität steht unter Druck. Ohne verbindliche Vergütungsmodelle droht laut Experten eine strukturelle Erosion der demokratischen Öffentlichkeit.
Praktische Strategien für Medienhäuser und Entwickler
Unabhängig vom Ausgang einzelner Gerichtsprozesse sollten Medienorganisationen und KI-Entwickler proaktiv auf die neue Realität reagieren. Folgende Maßnahmen sind aus branchensicht sowohl sinnvoll als auch umsetzbar:
- Technische Schutzmechanismen implementieren: Verlage sollten Machine-readable Tags und Robots.txt konsequent einsetzen, um Datamining klar zu regeln und den Zugriff auf Paywall-Inhalte abzuwehren.
- Verhandlungsstärke durch Allianzen erhöhen: Medienkonzerne können in Branchenbündnissen – wie der „News Media Alliance“ – stärkeren Druck auf Tech-Firmen ausüben und faire Lizenzkonditionen aushandeln.
- Eigene KI-Angebote schaffen: Durch eigene Chatbots, semantische Suchmaschinen oder journalistisch kuratierte KI-Tools können Medienunternehmen neue Erlösquellen erschließen – und gleichzeitig die Kontrolle über Inhalte behalten.
Ein Balanceakt zwischen Innovation und Integrität
Der aktuelle Streit um Medieninhalte in KI spiegelt einen tiefergreifenden Zielkonflikt: Technologische Innovation trifft auf über Jahrzehnte gewachsene publizistische Geschäftsmodelle. Ein nachhaltiges Modell zur Zukunft der Inhalteproduktion wird nur durch fairen Ausgleich, klare Regeln und transparente Technologiedesigns möglich.
Statt Eskalation braucht es Dialog – sowohl auf juristischer wie auf kultureller Ebene. Denn nur wenn die Schöpfer wertvoller Informationen auch im KI-Zeitalter Anerkennung und Vergütung erfahren, bleibt unsere Wissensgesellschaft pluralistisch, informiert und lebendig.
Welche Verantwortung tragen Entwickler, Nutzer und Plattformbetreiber künftig für die Herkunft ihrer Inhalte? Diskutieren Sie mit uns in den Kommentaren oder auf LinkedIn unter #KIundMedien.




