Es klang zu verlockend, um wahr zu sein: private Chats mit Stars wie Neymar oder Shirin David – direkt aufs Smartphone. Die Plattform Fanblast versprach exklusive Einblicke in das Leben von Prominenten. Doch was viele Nutzer nicht wussten: Die vermeintlich authentischen Nachrichten kamen nicht von den Stars selbst, sondern von KI-generierten Skripten. Der Fall Fanblast wirft ein grelles Licht auf eine der größten Herausforderungen digitaler Plattformen: Transparenz, Datenschutz und die Verantwortung gegenüber Verbrauchern.
Der Fanblast-Skandal: Was ist passiert?
Fanblast, ein Start-up mit Fokus auf interaktive Fan-Kommunikation, vermarktete eine App, mit der Nutzer scheinbar direkte Chats mit Prominenten führen konnten. Gegen eine monatliche Gebühr erhielten Abonnenten Nachrichten, Emojis und Voice-Messages – teils intim, teils alltagstauglich, stets personalisiert. Doch wie sich herausstellte, stammen diese Inhalte nicht von den genannten Promis selbst.
Wie das ARD-Wirtschaftsmagazin „Plusminus“ im Oktober 2024 aufdeckte, wurde der Dialog durch KI-generierte Chatbots erstellt. Diese nutzten öffentlich verfügbare Informationen sowie Sprachdaten aus früheren Social-Media-Postings, um eine realitätsnahe Illusion zu erzeugen. Fanblast hatte sich von Prominenten zwar Lizenzen zur Nutzung von Name und Bild eingeholt, doch war für viele Nutzer weder transparent noch sichtbar, dass die Kommunikation vollautomatisiert geschieht.
Verbrauchertäuschung oder cleveres Marketing?
Der mediale und juristische Aufschrei ließ nicht lange auf sich warten. Verbraucherschützer monierten, dass Fanblast irreführende Werbung betrieben habe – ein klarer Verstoß gegen geltendes Wettbewerbs- und Verbraucherschutzrecht. Die Darstellung eines „echten“ Dialogs wurde von vielen als bewusste Täuschung kritisiert. In einer Stellungnahme der Verbraucherzentrale Bundesverband (vzbv) von November 2024 heißt es: „Fanblast hat Kunden wissentlich in dem Glauben gelassen, direkt mit ihren Idolen zu kommunizieren. Die fehlende Kennzeichnung der Automatisierung ist wettbewerbswidrig.“
Fanblast wiederum verwies auf die Nutzungsbedingungen und erklärte, dass die KI-Generierung der Nachrichten „impliziert und mitdenkbar“ sei. Dennoch räumte das Unternehmen im Zuge wachsender Kritik ein, künftig transparente Hinweise zum KI-Ursprung der Inhalte zu liefern. Im Dezember 2024 stellte Fanblast nach Angaben der Plattform TechCrunch sein Geschäftsmodell vollständig um und kündigte an, nur noch gekennzeichnete Inhalte anzubieten.
Rechtlicher Rahmen: KI, Datenschutz und Täuschung
Der Fall zieht juristisch weite Kreise. Verbraucherschutzjuristen sehen eine eindeutige Irreführung laut §5 des Gesetzes gegen den unlauteren Wettbewerb (UWG). Auch der Datenschutz steht zur Debatte: Fanblast sammelte und analysierte Chataktivitäten, Reaktionsmuster und Vorlieben, um Inhalte noch „persönlicher“ erscheinen zu lassen. Dies geschah größtenteils ohne eine ausdrückliche, informierte Einwilligung zur KI-basierten Profilbildung – ein potenzieller Verstoß gegen die Datenschutz-Grundverordnung (DSGVO).
Rechtsanwältin Dr. Sophie Hartmann, Expertin für IT-Recht und Datenschutz, ordnet den Fall im Gespräch mit unserem Magazin wie folgt ein: „Die Verwendung von KI zur Simulation echter Persönlichkeiten ist rechtlich heikel – insbesondere bei suggerierter Authentizität. Der Schutz personenbezogener Daten in diesem Kontext ist noch nicht abschließend reguliert, lässt aber wenig Spielraum für Intransparenz.“
Zudem wird über eine Ausweitung der Kennzeichnungspflicht von KI-generierten Inhalten im Rahmen der kommenden KI-Verordnung der EU (AI Act) diskutiert, die ab Mitte 2026 vollständig in Kraft treten soll.
Die psychologische Komponente: Digitale Nähe als Produkt
Nutzerverhalten zeigt, dass digitale Intimität zunehmend ökonomisiert wird. Laut einer Studie des Digitalverbandes Bitkom von Juni 2024 geben 41 % der Nutzer unter 30 Geld für digitale Faninteraktionen aus – davon 23 % regelmäßig. Die emotionale Bindung an Prominente wird damit zum Geschäftsmodell.
Psychologin Prof. Dr. Lena Moser von der Universität Tübingen warnt: „Viele Nutzer – besonders Jüngere – erleben diese Interaktionen als Echtkontakt. Wenn erst nach Monaten bekannt wird, dass die Kommunikation künstlich war, kann das zu Vertrauensbruch, emotionaler Enttäuschung oder sogar Verlustangst führen.“
Dieses „Digital Deception Phänomen“ ist nicht neu, erhält durch generative KI jedoch eine neue Dimension. Seit dem KI-Boom 2022 hat sich das Angebot solcher simulierten Kommunikation rasant ausgebreitet – von Dating-Bots bis zu VIP-Fan-Chats.
Datenschutz in der Praxis: Was Nutzer wissen sollten
Verbraucherdaten gelten längst als wertvollste Ressource digitaler Geschäftsmodelle. Plattformen wie Fanblast analysieren Reaktionen, Klickpfade und sogar Uhrzeiten der Interaktionen, um Inhalte gezielter auszuspielen. Laut der jährlich erscheinenden Data Privacy Benchmark Study von Cisco 2025 gaben 81 % der Befragten an, sie würden einer Marke mehr vertrauen, wenn diese transparent mit KI und Datenschutz umgeht.
- Künstliche Kommunikation muss gekennzeichnet sein: Nutzer sollten grundsätzlich darauf achten, ob eine Interaktion automatisiert ist. Eine „transparente KI“-Kennzeichnung sollte zum Standard gehören.
- Datenschutzerklärungen wirklich lesen: Wer Dienste wie Fanblast nutzt, sollte Datenschutzerklärungen prüfen – insbesondere im Hinblick auf Profilbildung und Datenverarbeitung im Hintergrund.
- Nur seriöse und regulierte Plattformen nutzen: Apps, die mit Promi-Inhalten werben, sollten geprüft werden, ob sie offizielle Partnerschaften nachweisen können. Eine Impressums- und Lizenzprüfung hilft dabei.
Die Rolle der Regulierung: Verbraucherschutz im Post-KI-Zeitalter
Der Fall Fanblast zeigt exemplarisch, wie dringend regulatorische Nachbesserungen nötig sind. Europäische Gesetzgebungsinitiativen wie der Digital Services Act (DSA), der Digital Markets Act (DMA) und der AI Act sollen neue Standards setzen, treffen jedoch in vielen Fällen (noch) nicht auf bestehende Geschäftsmodelle.
Dr. Tobias Klain vom Institut für Technikfolgenabschätzung in Berlin sieht eine Zwei-Phasen-Regulierung als notwendig: „Zunächst gehört jede Simulation persönlicher Kommunikation auf die Prüfungsliste der Datenschutzbehörden. Mittelfristig muss der Gesetzgeber klare Transparenzregeln für KI-gestützte Fan-Interaktionen schaffen. Der AI Act muss hier nachschärfen.“
Ein Vorschlag wird derzeit im Ausschuss für Verbraucherschutz des EU-Parlaments diskutiert: Plattformen mit mehr als 500.000 Nutzern sollen verpflichtet werden, bei allen KI-generierten Inhalten einen eindeutigen Hinweis anzuzeigen – sowie die Möglichkeit zum sofortigen Widerspruch gegen automatisierte Profiling-Mechanismen anzubieten.
Fazit: Digitale Nähe braucht echte Transparenz
Fanblast ist kein Einzelfall. Der Fall verdeutlicht eine wachsende Kluft zwischen technologischem Fortschritt und ethisch-rechtlichen Standards. In Zeiten von generativer KI brauchen Verbraucher mehr denn je transparente Aufklärung, klare Regelungen und echte Wahlfreiheit im digitalen Raum.
Das Vertrauen der Nutzer ist nicht unerschöpflich – es muss verdient werden. Plattformen, die langfristig erfolgreich sein wollen, müssen auf transparente Kommunikation, Datenschutzkonformität und ethisches Design setzen. Nur so lässt sich der Grat zwischen Innovation und Manipulation nachhaltig ausbalancieren.
Lassen Sie uns gemeinsam dafür sorgen, dass digitale Innovation nicht auf Kosten von Vertrauen und Wahrheit geschieht. Haben Sie ähnliche Erfahrungen gemacht oder kennen fragwürdige Plattformen? Teilen Sie Ihre Einschätzung in den Kommentaren – die Community zählt auf Ihre Stimme!




