Künstliche Intelligenz revolutioniert die Art und Weise, wie wir Informationen konsumieren – besonders bei sensiblen Themen wie Gesundheit. Doch was, wenn die Quelle täuscht? Eine aktuelle Studie nimmt die Vertrauenswürdigkeit von Googles KI-gestützten Gesundheitsantworten unter die Lupe – mit beunruhigenden Ergebnissen.
Wenn KI auf YouTube hört: Die alarmierenden Ergebnisse der Stanford-Studie
Im Sommer 2024 sorgte eine Untersuchung der Stanford University School of Medicine in Zusammenarbeit mit der University of California, Berkeley, für Aufsehen. Die Studie analysierte die neue Funktion der sogenannten „AI Overviews“ (KI-Übersichten) von Google, die in den USA offiziell im Mai 2024 eingeführt wurden. Diese Funktion liefert Nutzern von Google Search generierte Zusammenfassungen ihrer Suchanfragen – insbesondere, wenn diese komplexe Informationsgebiete wie medizinische Themen betreffen.
Die Forscherinnen und Forscher untersuchten 100 gesundheitsbezogene Suchanfragen, darunter hochsensible Themen wie Impfwirkung oder Symptome schwerer Krankheiten. Das Ziel: Überprüfen, ob die von Google generierten Antworten auf qualitativ hochwertigen medizinischen Quellen basieren. Die Ergebnisse waren ernüchternd: In über einem Viertel der Fälle (27 %) verlinkten die AI Overviews ungeprüfte YouTube-Videos als Hauptquelle – teilweise sogar Beiträge ohne medizinische Expertise oder mit potenziell fehlinformierenden Inhalten.
Die Studie stellt fest, dass die KI insbesondere dann nicht zwischen fundiertem Fachwissen und populären, aber inakkuraten Inhalten differenziert, wenn diese Videos stark algorithmisch belohnt – durch z.B. hohe Engagement-Raten oder Views. Das Ergebnis: Sichtbarkeit ersetzt Verlässlichkeit.
„Wir waren überrascht, wie oft YouTube-Videos mit fragwürdiger Evidenz als Quelle dienten. Das ist besonders kritisch, wenn Nutzer der KI vertrauen, weil sie glauben, es handele sich um medizinisch geprüfte Aussagen“, kommentiert Dr. Tim Nguyen, Mitautor der Studie.
KI als Gatekeeper: Warum Algorithmen keine medizinische Ethik kennen
Der grundlegende technische Mechanismus hinter den AI Overviews basiert auf Googles Gemini-Modellen – Large Language Models (LLMs), trainiert auf Milliarden von Datenpunkten aus dem öffentlich zugänglichen Internet. Zwar bemüht sich der Konzern, Qualitätsmetriken intern aufzubauen, doch der Großteil der Gewichtung basiert auf Signalen wie Popularität, Autorität (nach SEO-Metriken) und technische Indexierbarkeit.
Anders gesagt: Wenn ein Video zwar keine nachweislich medizinisch fundierte Information bietet, aber häufig angesehen, diskutiert und geteilt wird, steigt seine Wahrscheinlichkeit, als Quelle in einer von KI generierten Antwort aufzutauchen.
Diese systemische Schwäche wird durch das Fehlen eines medizinischen Gatekeeping-Mechanismus verstärkt. Während Suchmaschinen bisher primär auf verlinkte, redaktionell geprüfte Webseiten verweisen, liefern KI-Systeme syntheseartige Antworten, deren Quellenlage für Nutzer oft intransparent bleibt. Laut einer Untersuchung des Pew Research Centers aus dem Jahr 2025 erkennen 62 % der Befragten in den USA nicht, dass die AI Overviews keine ärztlich geprüften Inhalte garantieren (Quelle: Pew Research Center, „AI Online Health Trust Study“, Oktober 2025).
Die Konsequenzen: Vertrauen, Gesundheit – und juristische Risiken
Die Gefahr ist mehrdimensional: Zum einen entsteht ein trügerisches Gefühl fachlicher Sicherheit – schließlich wirken KI-generierte Antworten strukturiert und emphatisch, oft sogar empathisch. Zum anderen begünstigt die algorithmische Auswahl ungeprüfter Quellen die Verbreitung von Fehlinformationen, vor allem bei polarisierenden Themen wie Ernährung, Impfungen oder alternativen Heilmethoden.
Laut WHO-Studie (2023) führen irreführende Gesundheitsinformationen im Internet jedes Jahr zu geschätzt 130.000 vermeidbaren Komplikationsfällen allein in Europa – eine Zahl, die mit dem Einzug generativer KI in Suchmaschinen an Aktualität gewinnt (Quelle: WHO Europe, „Misinformation and Public Health“, 2023).
Juristisch begibt sich Google mit seiner KI-Funktion auf dünnes Eis. Sollte ein Nutzer auf Grundlage der AI Overviews eine falsche medizinische Entscheidung treffen, könnten Fragen der Produkthaftung relevant werden. Zwar schließt der Konzern über Formulierungen à la „Dies ist keine medizinische Beratung“ grundsätzlich die Haftung aus – doch rechtliche Grauzonen entstehen dort, wo Nutzer das Gegenteil erwarten oder nicht ausreichend über die Natur der Quelle informiert wurden.
Vertrauen verspielt? Nutzerbindung und Reputationsrisiken
Ironischerweise verfolgt Google mit den AI Overviews das Ziel, die User Experience zu verbessern und die Nutzerbindung zu erhöhen. Doch verschiedene Studien zeigen, dass Verunsicherung durch unklare oder fehlerhafte KI-Antworten genau das Gegenteil bewirken kann.
Einer repräsentativen Studie des Interactive Advertising Bureau (IAB) zufolge konsultierten im Jahr 2025 rund 58 % der Internetnutzer in den USA mindestens einmal pro Monat KI-gestützte Systeme zur Klärung gesundheitlicher Fragen. Von diesen gaben jedoch 34 % an, dass sie nach einer irreführenden oder falschen KI-Antwort Zweifel am gesamten System entwickelt hätten (Quelle: IAB Health & Digital Trust Survey, 2025).
„Der Aufbau langfristigen Vertrauens ist bei KI noch fragiler als in der klassischen Suche“, erklärt dazu Prof. Dr. Ulrike Bischoff von der Universität Köln, die zur digitalen Gesundheitskommunikation forscht. „Ein einzelner Fehler in einem medizinischen Kontext kann reichen, um die gesamte Marke zu beschädigen.“
Verantwortungsvolle Alternativen: So geht es besser
Wie also lassen sich sichere, KI-gestützte Gesundheitsinformationen bereitstellen – ohne dabei auf populistische Quellen zu setzen?
- Integration geprüfter Gesundheitsdatenbanken: Anstatt offene, usergenerierte Plattformen wie YouTube zu referenzieren, sollten KI-Anbieter auf medizinisch validierte Datenquellen wie PubMed, UpToDate oder das Nationale Gesundheitsportal (Deutschland) zugreifen. Diese bieten geprüfte Fachinformationen und können über APIs in KI-Systeme eingebunden werden.
- Transparente Quellennennung an jeder Antwort: Nutzervertrauen steigt signifikant, wenn Systeme klar offenlegen, auf welchen Quellen eine Antwort basiert. Dies erfordert jedoch UI-Anpassungen, beispielsweise interaktive Tooltips mit geprüften Links.
- Human-in-the-Loop-Prüfung bei sensiblen Themen: Bei gesundheitsbezogenen Antworten sollten medizinische Fachpersonen in den Entscheidungsprozess eingebunden sein – sei es direkt im Prompting-Prozess oder zur regelmäßigen Prüfung der generierten Vorschläge.
Die Rolle der Regulierer: Zwischen Innovation und Aufsicht
Regulierungsbehörden wie die Europäische Arzneimittel-Agentur (EMA) oder die US-amerikanische FDA diskutieren derzeit aktiv über Richtlinien für KI-generierte Gesundheitsinhalte. Der europäische AI Act, der 2025 in Kraft trat, stuft Gesundheitsanwendungen mit hohem Risikofaktor in eine streng überwachte Kategorie ein. Google’s AI Overviews könnten darunter fallen – eine Beurteilung steht jedoch noch aus.
Fachleute fordern überdies neue Standards: Sollte es eine TÜV-Zertifizierung für medizinische KI-Ausgaben geben? Braucht es ein Prüfsiegel für vertrauenswürdige KI-Gesundheitsantworten? All dies sind Fragen, die sich in den kommenden Monaten klären müssen – bevor Fehlinformationen zu realem Schaden führen.
Fazit: Qualität statt Klicks – eine notwendige Kurskorrektur
Googles AI Overviews zeigen deutlich, dass die Qualität von Gesundheitsinformationen nicht dem Markt und seinen Algorithmen überlassen werden darf. Sichtbarkeit darf nicht gleichbedeutend mit Expertise sein. Die Zukunft einer vertrauenswürdigen KI im Gesundheitskontext erfordert nicht nur technologische Exzellenz, sondern ethische Verantwortung und neue Standards der Transparenz.
Wollen wir eine digitale Welt, in der korrekte Gesundheitsinformationen jederzeit und für alle zugänglich sind, so liegt die Verantwortung bei Tech-Unternehmen, Regulierungsbehörden – und bei uns allen als kritische Nutzerinnen und Nutzer. Teilen Sie Ihre Erfahrungen mit KI-Systemen bei Gesundheitsthemen in den Kommentaren. Welche Ansätze wünschen Sie sich für eine vertrauenswürdige Zukunft?



