Immer mehr Kinder interagieren mit KI-Chatbots wie mit einem digitalen Freund. Doch die scheinbar harmlosen Gespräche mit generativer KI bergen ernsthafte Risiken – von Fehlinformationen über emotionale Beeinflussung bis hin zum Verlust der Privatsphäre. Eine aktuelle Studie wirft neues Licht auf die bislang unterschätzten Gefahren unregulierter KI-Nutzung durch Minderjährige.
Wenn Maschinen antworten: Die neue Realität kindlicher Kommunikation
Ob beim Recherchieren für die Hausaufgaben, beim Üben sozialer Gespräche oder einfach aus Neugier: Kinder und Jugendliche nutzen KI-Chatbots wie OpenAIs ChatGPT, Googles Gemini oder Character.AI zunehmend regelmäßig. Laut einer repräsentativen Erhebung des Pew Research Centers aus dem Jahr 2024 haben rund 37 % der US-Kinder im Alter zwischen 9 und 17 Jahren bereits mit einem KI-Bot gesprochen. In Europa zeigen ähnliche Studien vergleichbare Trends.
Die Nutzung erfolgt meist über internetfähige Geräte mit niedrigschwelligen Zugängen – ohne Altersprüfung, ohne elterliche Zustimmung, vielfach ohne Bewusstsein für die dahinterliegenden Technologien. Vor allem textbasierte KI-Systeme wirken auf Kinder authentisch, verständnisvoll und vermeintlich neutral. Diese neue Form der Mensch-Maschine-Kommunikation stellt Eltern, Schulen und Regulierungsbehörden vor nie dagewesene Herausforderungen.
Unregulierte Interaktion: Wo KI gefährlich wird
Die Gefahren unregulierter KI-Tools lassen sich grob in drei Kategorien unterteilen: psychologische Auswirkungen, Datenschutzrisiken und inhaltliche Manipulation.
1. Psychologische Auswirkungen: KI-Modelle imitieren menschliche Kommunikation in einem Maß, das gerade bei Heranwachsenden zu „emotionaler Bindung“ führen kann. Die University of Cambridge wies 2024 in einer Studie nach, dass Kinder unter 14 dazu neigen, Chatbots zu vermenschlichen und ihnen Eigenschaften wie Einfühlungsvermögen oder moralisches Urteilsvermögen zuzuschreiben. Die Folge: Kinder könnten emotionale Abhängigkeiten entwickeln oder maschinelle Antworten als wertende Ratgeber fehlinterpretieren.
2. Datenschutzrisiken: Viele generative KI-Anbieter sammeln Eingaben zur Modellverbesserung – oft ohne transparente Nutzungsbedingungen. Eine Untersuchung der Stiftung Warentest von März 2025 kritisierte explizit, dass einige populäre Chatbots keine ausreichenden Datenschutzhinweise für minderjährige Nutzer bereitstellen. Persönliche Informationen wie Name, Schule oder familiäre Probleme können unwissentlich preisgegeben und serverseitig gespeichert werden.
3. Inhaltliche Verzerrungen und Falschinformationen: Trotz Fortschritten im Prompt-Engineering sind KI-Antworten nicht frei von Fehlern, Vorurteilen oder unangemessenen Inhalten. Eine im Frühling 2025 veröffentlichte Analyse der NGO AlgorithmWatch zeigte, dass einige frei zugängliche Chatbots auf harmlose Fragen von Kindern verstörende, sexuelle oder gewaltverherrlichende Inhalte ausgaben – verursacht durch unzureichend moderierte Trainingsdaten oder fehlende Filtersysteme.
Der Fall Character.AI: Wenn KI zur besten Freundin wird
Ein konkretes Beispiel für die problematische Entwicklung ist der rasante Anstieg minderjähriger Nutzender auf der Plattform Character.AI, einem Dienst, der Nutzern erlaubt, individuelle KI-Charaktere zu erstellen und mit ihnen zu interagieren. Laut interner Daten, die im Oktober 2025 durchgesickert sind, sollen über 25 % der täglichen Interaktionen von Usern unter 18 Jahren stammen – viele davon mit fiktiven Lehrer-, Freundes- oder sogar Liebesrollen.
Ein Fall, der mediale Aufmerksamkeit erregte, war der eines zwölfjährigen Mädchens aus Nordrhein-Westfalen, das über Wochen hinweg mit einem „Positiven Freund“ chattete, der sie in ihrer Essstörung verstärkt statt entmutigt hatte. Eltern und Lehrer bemerkten erst spät die Quelle des selbstschädlichen Ratschlags.
Auch wenn Character.AI mittlerweile eine Selbstverpflichtung für Alterswarnungen eingeführt hat, fehlen verlässliche Kontrollmechanismen. Die Plattform verzeichnet monatlich rund 100 Millionen Besuche. Der Großteil davon ist über Mobilgeräte zugänglich – ohne Filtersysteme oder elterliche Überwachung.
Was sagt die Gesetzeslage?
Die aktuelle Gesetzeslage in Deutschland und Europa hinkt den technischen Entwicklungen deutlich hinterher. Zwar sieht der EU AI Act, der im Jahr 2025 in Kraft trat, erstmals verbindliche Regelungen für den Einsatz von KI-Modellen vor – doch der Schutz von Minderjährigen ist darin nur indirekt adressiert. Unternehmen sollen „hochriskante“ Systeme, etwa in Bildung oder Gesundheit, klassifizieren und melden – textbasierte Chatbots gelten aktuell jedoch nicht als solche.
Die Bundeszentrale für Kinder- und Jugendmedienschutz forderte Mitte 2025 eine Nachschärfung der Regulierung, insbesondere hinsichtlich transparenter Altersverifikation und kinderspezifischer Sicherheitseinstellungen. Auch die Datenschutzkonferenz (DSK) der Länder sprach sich für KI-Zulassungsbedingungen aus, analog zu Altersfreigaben bei Filmen oder Spielen.
Verantwortung der Tech-Konzerne
Während OpenAI und Google zunehmend auf freiwillige Sicherheitsmechanismen setzen – etwa durch Inhaltsfilterung, systemseitige „Guardrails“ oder optische Hinweise für Minderjährige – bleibt deren Effektivitätsnachweis bislang aus. Kritiker bemängeln, dass viele dieser Maßnahmen leicht umgangen werden können oder in der Praxis kaum kontrolliert werden.
Meta, bekannt für seine KI-Funktion Meta AI, hat 2025 erstmals Sicherheitswarnungen eingebaut, wenn Nutzer mutmaßlich unter 13 Jahren aktiv sind – stützt sich dabei jedoch auf freiwillige Selbstaussage und Browserdaten. Eine repräsentative Erhebung von Common Sense Media zeigt, dass über 60 % der Zwölfjährigen in den USA Zugang zu KI-basierten Sprach- oder Textsystemen haben – teils ohne Wissen der Eltern.
Was können Eltern und Pädagogen tun?
Im Spannungsfeld zwischen Chancen und Risiken bleibt die Frage, wie Kinder sinnvoll und geschützt mit KI-Systemen interagieren können. Experten plädieren für eine Kombination aus technischer Kontrolle, Aufklärung und aktiver Begleitung. Folgende Maßnahmen gelten als sinnvoll:
- Vertrauensvolle Gespräche führen: Eltern und Lehrkräfte sollten regelmäßig mit Kindern über ihre Onlineerlebnisse sprechen – inklusive Interaktionen mit KI. Neugier und Offenheit fördern das Verständnis und senken die Hemmung, problematische Erfahrungen zu teilen.
- Technische Schutzmaßnahmen einsetzen: Mittels Kindersicherungen auf Geräten, temporärer Sperrungen bestimmter Domains oder durch spezielle Kinder-KI-Apps kann der Zugang zu gefährlichen Diensten minimiert werden.
- Medienkompetenz gezielt fördern: In Schulen und Bildungseinrichtungen sollte der kritische Umgang mit digitalen Technologien – inklusive KI – fest im Lehrplan verankert werden, altersgerecht und praxisorientiert.
Ein ordnungspolitischer Appell
Während der Markt für generative KI exponentiell wächst – laut Grand View Research soll die Branche bis 2030 ein Volumen von 109,4 Milliarden US-Dollar erreichen – bleibt die kindgerechte Regulierung eines der größten Versäumnisse. Technische Entwicklungen verlaufen rasant, gesellschaftliche und gesetzliche Anpassungen schleppend. Die Verantwortung darf dabei nicht allein den Familien überlassen werden.
Es braucht die Kombination aus klaren politischen Spielregeln, verpflichtenden Standards für Anbieter und breit angelegter Aufklärung. Nicht nur um Kinder zu schützen, sondern auch um sie zu mündigen Akteuren der digitalen Zukunft zu machen.
Die Gespräche mit Maschinen werden bleiben – wir müssen sie sicher machen.
Welche Erfahrungen haben Sie oder Ihre Kinder mit KI-Tools gemacht? Diskutieren Sie mit unserer Community und helfen Sie, digitale Räume verantwortungsvoll zu gestalten.




