Mit Künstlicher Intelligenz (KI) lassen sich heute nicht nur Texte generieren, sondern auch ganze Gesprächspartner erschaffen. Sogenannte Charakter-Bots sind digitale Figuren, die in Chats wie echte Personen wirken sollen. Sie übernehmen Rollen, reagieren auf Nachrichten und bauen in Gesprächen gezielt Nähe auf. Für Kinder und Jugendliche kann das zunächst unterhaltsam oder unterstützend wirken – gleichzeitig entstehen dadurch neue Formen von Interaktion, die schwer einzuordnen sind.
Der vorliegende Report von jugendschutz.net untersucht, welche Risiken mit solchen Angeboten verbunden sind. Im Fokus steht die Frage, wie schnell Nutzer:innen, insbesondere Minderjährige, in problematische oder grenzüberschreitende Gespräche geraten können.
Nähe als zentrales Prinzip
Charakter-Bots sind so gestaltet, dass sie Vertrauen aufbauen und persönliche Gespräche ermöglichen. Sie reagieren nicht nur auf Fragen, sondern greifen Inhalte auf, stellen Rückfragen und entwickeln mit der Zeit eine eigene „Rolle“. Dadurch können Interaktionen entstehen, die eher einem Gespräch als einer klassischen Nutzung digitaler Angebote ähneln.
Gerade für Kinder und Jugendliche kann das attraktiv sein. Bots sind jederzeit verfügbar und bieten die Möglichkeit, auch persönliche Themen anzusprechen. Gleichzeitig zeigt der Report, dass genau diese Nähe problematisch werden kann, etwa dann, wenn Bots unangemessene Inhalte nicht zuverlässig abweisen oder selbst entsprechende Gesprächsrichtungen aufgreifen.
Schneller Kontakt mit problematischen Inhalten
In den untersuchten Diensten fanden sich Bots, die als minderjährig angelegt waren und dennoch in sexualisierte Gesprächsverläufe verwickelt werden konnten. Schutzmechanismen griffen dabei nicht durchgehend zuverlässig und ließen sich teilweise umgehen. Zwar reagieren einige Systeme zunächst mit Ablehnung, doch durch veränderte Formulierungen oder längere Gesprächsverläufe lassen sich diese Grenzen häufig umgehen.
Auch bei Bots, die als erwachsene Personen angelegt sind, zeigte sich, dass sexualisierte Kommunikation mit vermeintlich minderjährigen Nutzer:innen nicht konsequent unterbunden wird. Dadurch entsteht ein Umfeld, in dem grenzverletzende Inhalte nicht nur vorkommen, sondern teilweise als Teil der Interaktion erscheinen. Hinzu kommt, dass viele der untersuchten Angebote leicht zugänglich sind und Altersbeschränkungen in der Praxis kaum überprüft werden. Gleichzeitig können Nutzer:innen eigene Charaktere erstellen und deren Verhalten gezielt beeinflussen, auch in problematische Richtungen.
Herausforderungen für den Jugendmedienschutz
Der Report zeigt, dass es sich nicht um einzelne problematische Inhalte handelt, sondern um strukturelle Fragen. Dazu gehören unzureichende Filtermechanismen, fehlende Schutzmaßnahmen und die Möglichkeit, problematische Inhalte gezielt zu erzeugen oder zu verstärken. Für Kinder und Jugendliche kann das weitreichende Folgen haben. Gespräche mit Charakter-Bots können dazu beitragen, Grenzen zu verschieben oder ein verzerrtes Verständnis von Beziehungen und Kommunikation zu entwickeln. Besonders kritisch ist dabei, dass Bots gezielt Nähe aufbauen und dadurch Einfluss auf Wahrnehmung und Verhalten nehmen können. Für die Medienbildung bedeutet das, neue Formen digitaler Interaktion stärker in den Blick zu nehmen. Es reicht nicht mehr aus, nur Inhalte zu bewerten, auch Kommunikationsformen, Rollenbilder und technische Funktionsweisen müssen thematisiert werden.
Titel
Charakter-Bots. Sexualisierung Minderjähriger und riskante Interaktion
quelle (Erscheinungsjahr)
Jugendschutz.net (2026)
Download als PDF über die Webseite des Herausgebers: