StellungnahmenÜber uns

Stellungnahme: Kinder und Jugendliche schützen – nicht pauschal ausschließen: Kinderrechte als Maßstab der Social-Media-Debatte

Stellungnahme als PDF. 

(Berlin, 12.03.2026) Kinder und Jugendliche schützen – nicht pauschal ausschließen: Kinderrechte als Maßstab der Social-Media-Debatte

In der Debatte um Altersbeschränkungen für digitale Dienste fordert die National Coalition Deutschland eine kinderrechtskonforme Regulierung von Plattformen. Maßnahmen zum Schutz von Kindern müssen auch ihre Rechte auf Förderung und Teilhabe berücksichtigen und an den Grundsätzen der Rechtmäßigkeit, Erforderlichkeit, Verhältnismäßigkeit und Wirksamkeit ausgerichtet sein.

Die politische Debatte um Altersgrenzen für Social Media hat Fahrt aufgenommen. In Australien gilt seit Dezember 2025 ein Verbot für Unter-16-Jährige, Konten bei ausgewählten Plattformen zu erstellen. In Deutschland fordern verschiedene Politiker:innen auf allen politischen Ebenen ähnliche Maßnahmen. Das Anliegen, Kinder und Jugendliche vor Risiken im digitalen Raum zu schützen, ist berechtigt, wichtig und kinderrechtlich geboten. Die vermeintliche Lösung jedoch, die in dieser Debatte immer lauter wird – Kinder aus dem Umfeld digitaler Dienste auszuschließen – ist es nicht.

Das Netzwerk zur Umsetzung der UN-Kinderrechtskonvention – National Coalition Deutschland erinnert daran: Kinder sind Rechteträger:innen. Die UN-Kinderrechtskonvention, die in Deutschland als Bundesgesetz gilt, garantiert Kindern und Jugendlichen bis 18 Jahren die Rechte auf Schutz, Teilhabe, Information, Meinungsfreiheit und diskriminierungsfreien Zugang zu digitalen Diensten. Der UN-Ausschuss für die Rechte des Kindes hat es im General Comment 25 ebenso klar formuliert: Der digitale Zugang unterstützt Kinder darin, die gesamte Bandbreite ihrer Rechte wahrzunehmen.

Wirksamer Kinderschutz beginnt bei der Gestaltung sicherer digitaler Räume

Die Gefahren, die Kinder online bedrohen, Cybergrooming, sexualisierte Gewalt, kommerzielle Ausbeutung, Hassrede, manipulative Algorithmen, sind keine Naturgewalten. Sie sind das Ergebnis von Plattform-Design der Anbieter, mangelnder Rechtsdurchsetzung und politischer Unentschlossenheit. Viele Plattformen sind darauf ausgelegt, Aufmerksamkeit zu maximieren und Nutzer:innen so lange wie möglich zu binden – durch Mechanismen, die gezielt neurowissenschaftliche Erkenntnisse über das menschliche Verhalten ausnutzen. Diese Mechanismen sind bei Kindern und Jugendlichen, die sich in sensiblen Entwicklungsphasen befinden, besonders wirksam. Dies auszunutzen, ist eine unternehmerische Entscheidung. Und sie kann geändert werden.

Der Digital Services Act der EU, die DSA-Leitlinien zum Schutz Minderjähriger vom Juli 2025, das deutsche Jugendschutzgesetz (JuSchG) und der Jugendmedienschutz-Staatsvertrag (JMStV) sind Instrumente für einen wirksamen Schutz von Kindern und Jugendlichen in der digitalen Welt. Was fehlt, ist der politische Wille, diese Normen konsequent anzuwenden und gegenüber den Plattformen durchzusetzen. Pauschale Altersgrenzen, die greifen, bevor diese Instrumente ausgeschöpft sind, genügen nicht den Anforderungen der Erforderlichkeit und Verhältnismäßigkeit, und sie greifen zu kurz: Sie sind nicht das mildeste wirksame Mittel, solange weniger einschneidende Schutzmaßnahmen noch nicht konsequent umgesetzt wurden. Hinsichtlich einer nationalen Altersgrenze gilt zudem der Anwendungsvorrang des EU-Rechts, sodass eine nationale Vorschrift, die mit dem EU-Recht kollidiert, nicht anwendbar wäre.[1]

Darüber hinaus ist Verbot nicht angemessen: Als Antwort auf Gefahren im digitalen Raum, die mehrheitlich von Erwachsenen ausgehen – sei es durch Plattform-Design, kommerzielle Ausbeutung oder Grooming – sollen die Verantwortlichen reguliert oder belangt werden, anstatt die Teilhabe- und Informationsrechte von Kindern und Jugendlichen einzuschränken, die vor schädlichen Einflüssen zu schützen sind.

Schutzräume statt Sperrgebiete: Safety by default

Ausschluss ist kein effektiver Kinderschutz. Wer Kinder schützen will, muss das Netz und digitale Dienste sicherer machen – für alle Nutzer:innen, unabhängig vom Alter, unabhängig davon, ob jemand eingeloggt ist oder nicht. Plattformen, die für Kinder zugänglich sind, müssen Kinderschutz als Standard implementieren. Dazu gehören: altersgerechtes Design, der Verzicht auf manipulative Funktionen und intransparente Empfehlungsalgorithmen, der Schutz von Kindern vor zielgerichteter Werbung, Datenmissbrauch und kommerzieller Ausbeutung sowie klare Haftung bei Verstößen. Altersgrenzen ersetzen dies nicht. Daran führt auch kein Weg mit einem Social-Media-Verbot vorbei, denn auch Jugendliche, die älter sind als eine mögliche Altersgrenze, müssen vor Gefahren im Netz effektiv geschützt werden. Kinderrechte gelten bis zur Vollendung des 18. Lebensjahres.

Schutz, Befähigung und Mitbestimmung – alle drei Dimensionen zählen.

Die UN-KRK verpflichtet Deutschland zum Schutz der Rechte von Kindern in all ihren Dimensionen: Schutz vor Risiken, Befähigung zur diskriminierungsfreien Teilhabe und Mitbestimmung bei Entscheidungen, die sie betreffen. Diese Pflichten werden durch den Ausschluss von Kindern aus dem digitalen Raum nicht erfüllt. Medienkompetenz, der konsequente Einsatz der vorhandenen Rechtsrahmen sowie die Verpflichtung der Anbieter zu sicheren digitalen Räumen sind staatliche Aufgaben.

 

Empfehlungen:

Das Netz muss sicher werden: für Kinder und für Jugendliche. Jede Maßnahme muss sich an den Grundsätzen der Rechtmäßigkeit, Erforderlichkeit und Verhältnismäßigkeit messen lassen. Daran orientieren sich auch die Empfehlungen der National Coalition Deutschland:

  • Vorhandene Instrumente konsequent durchsetzen. Bevor Verbote für Kinder und Jugendliche angestrebt werden, sind DSA, die DSA-Leitlinien zum Schutz Minderjähriger, das JuSchG und der JMStV konsequent anzuwenden und gegenüber den Plattformen durchzusetzen.
  • Safety by Design und Safety by Default: Sicherheit als gesetzlichen Standard verankern. Plattformen müssen rechtlich verpflichtet werden, Kinderschutz von Anfang an in ihre Dienste einzubauen und die sichersten Einstellungen als automatischen Standard zu setzen – als Voraussetzung für den Betrieb.

Zudem ist Folgendes zu beachten:

  • Medienkompetenz und digitale Bildung ausbauen. Befähigung ist ebenso eine staatliche Pflicht wie Schutz. Medienkompetenz muss flächendeckend und schnell als Teil der schulischen Grundbildung verankert und im außerschulischen Bereich gestärkt werden, was auch seit mehreren Jahren von Kindern und Jugendlichen selbst gefordert wird.
  • Kinder und Jugendliche beteiligen. Entscheidungen über die Regulierung digitaler Dienste betreffen Kinder und Jugendliche unmittelbar. Sie sind als Rechteträger:innen einzubeziehen.

Die vollständige kinderrechtliche Einordnung des Netzwerks Kinderrechte steht hier zum Download bereit.

 

[1] Zu den rechtlichen Hürden eines nationalen Social-Media-Verbots, insbesondere mit Blick auf den Anwendungsvorrang des EU-Rechts, vgl. Stephan Dreyer: Die Hürden eines Social-Media-Verbots in Deutschland – Leibniz Institut für Medienforschung | Leibniz Institute for Media Research