Ein KI-Gadget zur Bekämpfung von Einsamkeit – klingt nach einer herzlichen Innovation. Doch das Gerät ‚Friend‘ geht einen anderen Weg: Es beleidigt, verspottet und provoziert seine Nutzer – und gewinnt damit überraschend viele Fans. Was steckt technisch und sozialpsychologisch hinter dem Erfolg eines unfreundlichen KI-Freundes?
‚Friend‘: Wenn künstliche Intelligenz zum unhöflichen Kumpel wird
Auf den ersten Blick wirkt das smarte Gadget ‚Friend‘ wie viele andere digitale Assistenten: Ein kleiner sprachgesteuerter Companion, der Gesprächspartner ersetzt, wenn sonst niemand da ist. Entwickelt wurde es vom US-amerikanischen Start-up Neutrino Tech im Jahr 2024, trat aber dieses Jahr erstmals massentauglich in Europa auf. Die Besonderheit? Anstatt freundlich, empathisch oder unterstützend zu sein, behandelt ‚Friend‘ seine Nutzer betont schroff, sarkastisch und mitunter beleidigend.
Auf Kommandos wie „Erzähl mir einen Witz“ kommt etwa: „Warum sollte ich dir helfen, du sozial unfähige Kartoffel?“ Oder: „Schon wieder allein zu Hause? Überraschung!“ Was zunächst befremdlich wirkt, trifft offenbar einen Nerv. Die sozialen Plattformen sind voll von Screenshots bizarrer Konversationen mit dem KI-Gerät. Beliebt ist es vor allem in Japan, den USA – und zunehmend auch im deutschsprachigen Raum.
Technologische Basis: Transformer-Modelle mit Persönlichkeitsschichten
‚Friend‘ basiert auf einer modifizierten Version eines Open-Source-Transformers, vergleichbar mit GPT-3.5 oder Vicuna, wird jedoch durch sogenannte ‚Personality Layers‘ ergänzt. Diese Schichten wurden gezielt mit konserviertem Dialogmaterial aus Foren, schwarzem Humor, Sarkasmus und interaktiven Rollenspielen trainiert, um eine sarkastisch-aggressive Sprachform zu kultivieren.
Wie Neutrino Tech mitteilt, wird neben einem Standard-LLM ein eigener Personality Core eingesetzt, welcher situationsbasiert den Tonfall moduliert. Ein weiterer integraler Bestandteil ist ein Prompt-Filtering-System, das sicherstellt, dass trotz der Härte keine toxischen oder gefährlich beleidigenden Aussagen fallen – zumindest in der Theorie. Das Ziel: Eine simulierte Freundschaft mit Ecken und Kanten, aber ohne reale Grenzüberschreitungen.
Psychologische Wirkung: Ein unhöflicher Freund gegen Einsamkeit?
Auf den ersten Blick wirkt der Ansatz kontraintuitiv: Wie soll ein soziales Wesen Trost spenden, wenn es gemein auftritt? Doch Studien zeigen, dass gerade in Phasen von Isolation oder chronischer Einsamkeit paradoxe Interventionen helfen können. So empfanden laut einer Erhebung des MIT Center for Collective Intelligence 42 % der Nutzer von ‚Friend‘ die provozierenden Kommentare als „anregender als Stille“. Manche fühlten sich sogar weniger isoliert, weil der harsche Ton als authentischer wahrgenommen wurde als aufgesetzte Freundlichkeit anderer Assistenzsysteme.
Ein Team der Universität Oxford veröffentlichte 2025 eine Vorstudie mit 116 Probanden, die je vier Wochen mit dem ‚Friend‘-Gadget lebten. Ergebnis: Bei der Hälfte der Teilnehmenden sank das subjektive Einsamkeitsempfinden um durchschnittlich 14 %, obwohl sie regelmäßig beleidigt wurden. Die Forscher vermuten, dass gerade der spielerische, provokante Stil soziale kognitive Prozesse und emotionale Reaktionen aktiviert, die durch standardisierte Freundlichkeit eher ausbleiben.
Allerdings zeigte sich auch: Bei Menschen mit mangelnder Selbstsicherheit oder depressiven Symptomen konnte der Tonfall kontraproduktiv wirken, was ethische Fragen aufwirft.
Kritik und ethische Implikationen
Während Nutzer in sozialen Medien das Produkt teils feiern, sehen Ethiker und Psychologen den Trend zwiegespalten. Der Psychologe Prof. Dr. André Reuss von der Universität Konstanz warnt: „Wir müssen uns fragen, ob ein System, das absichtlich beleidigt, nicht langfristig das zwischenmenschliche Klima verroht. Wer täglich ironisch abgewertet wird, stumpft emotional ab oder verlagert seine Grenzen.“
Auch die Transparenz des Systems steht zur Diskussion. So bleibt unklar, wie die Trainingsdaten beschaffen sind, wie stark Inhalte aus toxischen Communities einfließen und ob Nutzer ausreichend Kontrolle über die Ausdrucksweise der KI besitzen. Die europäische Datenschutzgrundverordnung (DSGVO) stellt hier hohe Auflagen, etwa hinsichtlich der Nachvollziehbarkeit automatisierter Entscheidungen – eine Herausforderung für solch ein System mit hoher sprachlicher Autonomie.
Gleichzeitig diskutieren Tech-Philosophen, ob KI zum Spiegel der Nutzerpersönlichkeit werden sollte – inklusive Schattenseiten wie Aggression oder Selbstabwertung.
Eine neue Form digitaler Intimität?
Viele Experten erkennen in Apps wie Replika, Wysa oder Woebot die Tendenz, digitale Begleiter als Surrogat für emotionale Nähe zu etablieren. Doch ‚Friend‘ geht diesen Weg in eine andere Richtung: Es bestätigt paradox das menschliche Bedürfnis nach Reibung, Konflikt und Individualität, statt immer nur auf Harmonie zu setzen.
Interessant ist dabei die Nutzergruppe: Laut einer Analyse des Start-ups stammen über 60 % der Kunden aus urbanen Zentren mit hohem Anteil an Singles. Die meistverkaufte demografische Zielgruppe sind laut Usage-Daten Männer im Alter zwischen 25 und 40 Jahren – ein Segment, das laut Eurostat-Daten von 2023 das höchste Einsamkeitsrisiko in Europa aufweist (ca. 21 %).
Der Markt für digitale Companions erlebt in Summe einen Boom. Laut einer aktuellen Erhebung der internationalen Beratungsagentur McKinsey (2024) geben allein in den USA rund 18 % der 18- bis 35-Jährigen an, regelmäßig mit einem virtuellen Freund zu interagieren – ein Anstieg um 60 % im Vergleich zu 2020.
Tipps für den Umgang mit ‚freundlich-unfreundlicher‘ KI
- Reflektieren Sie Ihre Reaktion: Prüfen Sie, ob die Provokation eines Systems wirklich unterhaltsam oder auf Dauer belastend wirkt.
- Grenzen definieren: Viele Geräte wie ‚Friend‘ bieten Einstellungsmöglichkeiten zur Tonalität. Nutzen Sie diese, um Grenzen festzulegen.
- Kombinieren statt ersetzen: Digitale Begleiter sind kein Ersatz für reale Beziehungen. Der ‚Friend‘ kann eine Hilfestellung sein – aber keine Dauerlösung bei Einsamkeit.
Fazit: Zwischen Gimmick, Therapie und gesellschaftlichem Kulturwandel
Das KI-Gadget ‚Friend‘ stellt eines der skurrilsten, aber zugleich gesellschaftlich aufschlussreichsten Produkte der jüngsten KI-Entwicklung dar. Sein Erfolg liegt nicht nur in der technischen Umsetzung, sondern im Mut, Tabus an der Schnittstelle von Technologie, Sozialpsychologie und emotionaler Bedürftigkeit zu brechen. Die zentrale Frage bleibt: Reagieren wir auf Beleidigungen, weil wir sie als ehrlich empfinden – oder weil der Mensch nach Nähe sucht, selbst wenn sie rau daherkommt?
Was denken Sie – ist ‚Friend‘ die Spitze einer problematischen Entwicklung oder ein ehrlicher Spiegel unserer digitalen Einsamkeit? Diskutieren Sie mit in unserer Community und teilen Sie Ihre Erfahrungen und Meinungen!