Gefährliche Tipps von Chatbots – Wie schütze ich mein Kind, wenn die KI es nicht tut?

Chatbots gelten häufig als simpler Zeitvertreib oder Hilfe im Alltag. Zwischen hilfreichen Antworten und zahlreichen Informationen kann es aber auch passieren, dass die KI zu gefährlichen Handlungen rät. ZEBRA erklärt genauer, worin die Gefahr liegt und wie man sein Kind bestmöglich schützen kann.
Lesedauer: 3 Minuten
Icon of a Calendar
3. Juli 2025

KI ist längst im Kinderzimmer angekommen – und damit auch Chatbots wie zum Beispiel ChatGPT. Was für viele Kinder eine gute Möglichkeit zu sein scheint, einen Gesprächspartner zu finden und Langeweile zu vertreiben, ist nicht immer so harmlos wie es aussieht. Und manchmal kann das sogar richtig gefährlich werden.

Was sind die Gefahren bei Chatbots?

Damit Chatbots uns möglichst schlüssige Antworten geben können, werden sie mit vielen Daten trainiert. Allerdings ist nicht immer eindeutig, welche Daten dafür genutzt wurden. Somit können auch anstößige, gefährdende oder diskriminierende Inhalte generiert werden. Bei einzelnen Anbietern kam es sogar zu Tipps für Essstörungen oder Aufforderungen zum Suizid.

Immer häufiger sieht man außerdem, wie Chatbots für Kinder und Jugendliche mehr werden als bloß KI: Gesprächspartner, Freunde oder sogar ein Ersatz für Psychotherapie – ChatGPT wird zum engen Vertrauten. Das kann nicht nur die soziale Entwicklung von Kindern und Jugendlichen negativ beeinflussen. Es kann auch dazu führen, dass die Kinder bedenkenlos das tun, was die KI ihnen sagt – auch wenn das gefährlich sein sollte.

Gibt es da keine Regulierung?

Grundsätzlich werden KI-Anwendungen mit dem EU AI-Act reguliert. Dieser legt zum Beispiel fest, dass Anbieter KI-Funktionen, ihre Inhalte und auch ihr Training transparent machen müssen. Allerdings ist dieser AI-Act noch nicht vollständig in Kraft getreten und deckt auch nicht konkret alle Anwendungsbereiche von KI ab. Extrembeispiele, wie Suizidaufforderungen bleiben derzeit also noch ohne Folgen für die Anbieter.

Hinzu kommt, dass manche Kinder und Jugendliche die KI bewusst nach derartigen Inhalten fragen. Auch Chatbots, die darauf trainiert werden, solche Inhalte nicht zu generieren, können mit den richtigen Prompts ausgetrickst werden. Auch wenn Entwickler diese Lücken stetig ausbessern, finden Jugendliche immer wieder neue Möglichkeiten, die KI zu manipulieren.

Wie kann ich mein Kind schützen?

Auch wenn sie Gefahren birgt, muss man KI nicht direkt abschwören. Sinnvoller ist es, Kinder an einen guten Umgang mit solchen Chatbots heranzuführen. So kann das gelingen:

  • Regelmäßige Gespräche: Spricht man mit seinem Kind regelmäßig über seine Mediennutzung, kann man es für mögliche Risiken sensibilisieren. Dabei ist es wichtig, Raum für Fragen, Sorgen oder auch schwierige Erlebnisse des Kindes zu lassen und diese gemeinsam zu besprechen. So kann das Kind nach und nach lernen, kompetent mit KI umzugehen und Chatbots kritisch zu hinterfragen.
  • Gemeinsam entdecken: Gerade bei jüngeren Kindern ist es wichtig, dass sie KI-Anwendungen immer in Begleitung mit Erwachsenen nutzen. Aber auch mit Jugendlichen, die Chatbots bereits allein nutzen, kann man noch viel gemeinsam entdecken und so zusammen herausfinden, wie eine positive Nutzung für das Kind aussehen kann.
  • Regeln aufstellen: Regeln bieten für Kinder Orientierung und können dabei helfen, dass Kinder und Jugendliche Schritt für Schritt ein Gefühl dafür entwickeln, wie sie produktiv mit KI und Chatbots umgehen können. Handelt man gemeinsam Regeln zur Mediennutzung aus, kann der Mediennutzungsvertrag helfen.
  • Alternative Aktivitäten anbieten: Neben den Chatbots sollte auch noch genug Zeit für Schule, Hobbys und Freunde bleiben. Hat man das Gefühl, das Kind verbringt zu viel Zeit mit der KI kann es sinnvoll sein, gemeinsame Familienaktivitäten, Treffen mit Freundinnen und Freunden oder auch neue Hobbys vorzuschlagen.

Mehr Informationen rund um die Themen KI und Chatbot, findet man hier:

Oder auch in unserer Themenwelt „Künstliche Intelligenz

Weitere ZEBRA News