Kinderrechte ernstnehmen!
Die Europäische Union und der Kinderschutz im digitalen Umfeld
In jüngster Zeit wird im Raum der Europäischen Union verstärkt darüber diskutiert, wie junge Menschen vor wirtschaftlicher Ausbeutung, Cybermobbing, Gewalt, Missbrauch, algorithmische Risiken und der Verletzung ihrer persönlichen Integrität im digitalen Umfeld am besten zu schützen sind. Dabei ist grundsätzlich zu unterscheiden, ob gegen diese Praktiken selbst mit gesetzlichen Maßnahmen vorgegangen, oder ob jungen Menschen der Zugang zu den entsprechenden Plattformen verboten wird. Aus unserer Sicht ist immer zu bedenken, dass der angestrebte Schutz der jungen Menschen nicht auf Kosten ihrer Rechte auf Informations-, Meinungs- und Vereinigungsfreiheit erfolgt, d. h. ihre Beteiligungsrechte gewahrt werden.1
Kinder und ihre Rechte im digitalen Umfeld
In diesem Sinne betonte schon der UN-Ausschuss für die Rechte des Kindes in seinen Allgemeinen Bemerkungen Nr. 25 (2021), die sich auf die Rechte der Kinder im digitalen Umfeld beziehen, „dass alle Kinder gleichermaßen einen effektiven und kindgerechten Zugang zum digitalen Umfeld haben“ müssen (UN-Ausschuss 2021, § 9). Statt Kinder auszuschließen, sollen die Vertragsstaaten die Unternehmen rechtlich verpflichten, ihre Plattformen so zu gestalten, dass Kinder nicht benachteiligt werden und Schaden erleiden, etwa durch manipulative oder ausbeuterische Techniken.
Alle Kinder [müssen] gleichermaßen einen effektiven und kindgerechten Zugang zum digitalen Umfeld haben:“
Ein Beispiel sind die im Digital Services Act (DSA) der Europäischen Union als „Dark Patterns“ bezeichneten Designmuster, mit denen „darauf abgezielt oder tatsächlich erreicht wird, dass die Fähigkeit der Nutzer, eine autonome und informierte Auswahl oder Entscheidung zu treffen, maßgeblich verzerrt oder beeinträchtigt wird“ (European Union 2022, Art. 67). Sie können dazu führen, dass Nutzer*innen unwissentlich personenbezogene Daten preisgeben, unerwünschte Käufe tätigen oder übermäßig viel Zeit im Internet verbringen, weshalb der DSA ein Verbot dieser Praktiken vorsieht. Um diesen und anderen manipulativen Praktiken entgegenzuwirken, erwartet der UN-Ausschuss für die Rechte des Kindes von den Vertragsstaaten, dass sie von den Unternehmen unter anderem „ein hohes Maß an Cybersicherheit, integrierten Sicherheitskonzepten (Safety by Design) und Datenschutz durch Technikgestaltung (Privacy by Design) in den von Kindern genutzten digitalen Diensten und Produkten verlangen“ (UN-Ausschuss 2021, § 116).
Zehn Grundsätze, an denen sich Programmierer*innen bei der Entwicklung digitaler Dienste für Kinder orientieren können, werden z. B. im Code voor Kinderrechten des Zentrums für Recht und digitale Technologien (eLaw) der Universität Leiden (Niederlande) dargelegt.2
In Deutschland brachte eine für das digitale Umfeld wichtige Neuerung die 2021 erfolgte Reform des Jugendschutzgesetzes, indem in § 10a das Konzept der persönlichen Integrität als neues Schutzziel aufgenommen wurde (Bundesministerium der Justiz und für Verbraucherschutz 2021). Im „Expert*innenkreis für Kinderrechte in der digitalen Welt“, einem informellen Zusammenschluss von Kinderrechtsorganisationen in Deutschland, wurde dazu ein Begriffsverständnis erarbeitet, wonach die persönliche Integrität den Schutz der physischen und psychischen Unversehrtheit sowie der persönlichen Daten umfasst. Insbesondere sind die altersgerechte und zukunftsoffene Entwicklung sowie die informationelle und sexuelle Selbstbestimmung der Minderjährigen sicherzustellen. Die Ausnutzung von Unerfahrenheit und Alter, eine wirtschaftliche Ausbeutung sowie die kommerzielle oder andere zweckfremde Verarbeitung und Verbreitung von Nutzendendaten stehen im Umkehrschluss dem Schutz der persönlichen Integrität entgegen (zit. n. Krause/Kretschmann/Yacob 2022, o. S.).
Widersprüchliche Tendenzen in der Europäischen Union
Auf europäischer Ebene hat die Europäische Kommission in der 2021 veröffentlichten Neuauflage ihrer Kinderrechtsstrategie vollmundig angekündigt, für alle Kinder „eine sichere digitale Umgebung“ zu schaffen, in der sie als „Digital Natives“ problemlos im Internet surfen sowie die sozialen Medien und andere digitale Tools „zur sozialen Interaktion, Kompetenzentwicklung, zum Lernen, Spielen und Organisieren des täglichen Lebens“ nutzen können (Europäische Kommission 2021)3. Doch trotz der verbreiteten Rede von „digitaler Souveränität“ tut sich in dieser Hinsicht wenig, um von den profitorientierten, meist US-amerikanischen Plattformbetreibern unabhängig zu werden und ein „besseres Internet“ hervorzubringen. Eine eigenständige Kontrolle von (gefährdenden oder menschenunwürdigen) Inhalten erfolgte bisher nur zögerlich und wenig effektiv. Stattdessen werden zunehmend „Schutzprogramme“ propagiert, die nicht die Plattformen ändern, sondern jungen Menschen bis zu einem Mindestalter den Zugang zum Internet erschweren und verwehren.
Der Digital Services Act der Europäischen Union vom 19. Oktober 2022 (European Union 2022) hatte noch den Blick auf die Gestaltung der Plattformen gerichtet und die Transparenz ihrer Funktionsweise (auch für wissenschaftliche Untersuchungen) angemahnt. Die am 1. Oktober 2025 im Amtsblatt der Europäischen Union veröffentlichten „Leitlinien“ der Europäischen Kommission „für Maßnahmen zur Gewährleistung eines hohen Maßes an Privatsphäre, Sicherheit und Schutz von Minderjährigen im Internet“ (Europäische Kommission 2025) fokussieren dagegen auf das Alter der Nutzer*innen und stellen im überwiegenden Teil des Dokuments penible Überlegungen dazu an, wie das Alter der Personen, die jünger als 18 Jahre alt sind („Minderjährige“), festgestellt oder geschätzt werden kann. In § 25 der Leitlinien heißt es:
„Die Kommission betrachtet Maßnahmen zur Beschränkung des Zugangs auf der Grundlage des Alters als wirksames Mittel, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen auf Online-Plattformen zu sorgen. Zu diesem Zweck können Instrumente zur Altersfeststellung den Anbietern dabei helfen, Zugangsbeschränkungen für Nutzer unter einem bestimmten Alter durchzusetzen, um Minderjährige vor dem Zugang zu nicht altersgerechten Inhalten im Internet wie Glücksspiel oder Pornografie oder vor anderen Gefahren wie Grooming zu schützen.“
Die Sprache gegenüber den mächtigen kommerziellen Plattformbetreibern ist von Servilität gekennzeichnet; ihnen soll „geholfen“ oder sie sollen „unterstützt“ werden, um „Minderjährige“ von Inhalten und Praktiken fernzuhalten, für die die Unternehmen selbst Verantwortung tragen. Unfreiwilliger Zynismus kommt zutage, wenn es in § 35 heißt:
„Es sollte die Beteiligung von Kindern an der Gestaltung, Umsetzung und Bewertung von Altersbeschränkungen und Methoden der Altersfeststellung vorgesehen werden.“
So sieht der vermeintliche Tribut an die Kinderrechte aus, deren Bedeutsamkeit in der Einleitung der Leitlinien wortreich beschworen wird.
Fixierung auf Mindestalter
Fast zeitgleich, am 26. November 2025, hat das Europäische Parlament einen Report „on the protection of minors online“ beschlossen (European Parliament 2025), in dem es auch ausführlich auf Influencer-Marketing und Videospiele eingeht. Diese und andere an junge Menschen adressierte Aktivitäten und Inhalte auf digitalen Plattformen sind mit zahlreichen Risiken wie wirtschaftlicher Ausbeutung, Cybermobbing und Eingriffen in die persönliche Integrität verbunden (vgl. Liebel/Meade 2026; Claßen/Schwab/Kindling 2024; Hajok/Melber/Otto 2022; Polster 2021; Kutscher/Bouillon 2018). Im Report werden „der breite Anwendungsbereich der Leitlinien” und die „Mechanismen der Altersfeststellung“ ausdrücklich begrüßt, allerdings wird auch auf „mögliche unbeabsichtigte Folgen für die Freiheiten und Rechte des Kindes“ (Nr. 18) hingewiesen.
Trotz dieser Bedenken und obwohl das Parlament in den Mechanismen der Altersfeststellung kein „Wundermittel“ (silver bullet) sieht, geht es noch einen Schritt weiter als die Kommission und fordert „die Festlegung einer einheitlichen europäischen Altersgrenze von 16 Jahren als Standardschwelle, unterhalb derer der Zugang zu sozialen Online-Medienplattformen nicht gestattet sein sollte, es sei denn, Eltern oder Erziehungsberechtigte haben ihren Kindern etwas anderes gestattet“ (Nr. 28). Darüber hinaus fordert das Parlament „eine einheitliche europäische Altersgrenze von 13 Jahren, unterhalb derer Minderjährige keinen Zugang zu sozialen Medienplattformen haben dürfen“ (Nr. 28).
In Deutschland ist die Debatte um den Kinderschutz in den digitalen Medien erst spät im parlamentarischen Raum angekommen. Die Kinderkommission des Deutschen Bundestages hat am 5. und 12. November 2025 unter dem Motto „Sharenting und Kinderinfluencer – Kommerzialisierung von Kindheit“ erstmals zwei Fachgespräche zu diesem Thema veranstaltet und gesetzliche Initiativen angekündigt.4 Auch die Forderung eines strikten Verbots von Smartphones an deutschen Schulen – wie 2018 in Frankreich flächendeckend bis zur 9. Klasse und seit 2024/25 auch in mehreren anderen Ländern eingeführt – wird immer wieder erhoben.
Das Kind mit dem Bade ausgeschüttet
Vielleicht ist der kürzlich in Australien erfolgte rigorose Schritt von Regierung und Parlament, allen jungen Menschen unter 16 Jahren die Nutzung bestimmter sozialer Medien gesetzlich zu verbieten, ein Weckruf, um über bessere Formen des Kinderschutzes nachzudenken (vgl. Angus 2025). In Australien hat diese am 10. Dezember 2025 in Kraft getretene Maßnahme5 jedenfalls unter jungen Menschen zu einem Aufschrei und in der Gesellschaft zu heftigen Kontroversen geführt. Auch wenn viele junge Menschen selber berichten, dass es ihnen (aufgrund der Dark Patterns) schwerfällt, sich von Sozialen Medien abzugrenzen, werden diese als wichtige Peer-Kommunikationsplattformen gesehen. Sie ermöglichen jungen Menschen – insbesondere denen aus LGBTQ+, neurodiversen oder abgelegenen ländlichen Communitys –, Beziehungen aufzubauen und rüsten sie für die Anforderungen des Lebens (Watson 2025).
Die junge Klimaaktivistin Ivy Sheng weist darauf hin, dass ein Verbot die Möglichkeiten junger Menschen beeinträchtige, eine Meinung zu bilden, politische Debatten zu führen und sich zu organisieren (Lavoipierre 2025). Der 15-jährige Noah Jones und die 15-jährige Macy Neyland haben mit weiteren Jugendlichen und dem Digital Freedom Project Klage gegen das Verbot vor dem australischen High Court eingereicht, weil es ihrer Meinung nach „das verfassungsmäßige Recht auf freie politische Kommunikation verletzt“ (Turnbull 2025).
Screenshot Digital Freedom Project
In einer aktuellen Umfrage unter 17.000 australischen Teenagern, die im Vorfeld des Verbots durchgeführt wurde, haben sich 91 % der befragten jungen Menschen gegen das anstehende Verbot ausgesprochen und nach anderen Lösungen verlangt (Matthews 2025; vgl. auch die Studie von Osman et al. 2025). Viele kündigten an, als eine Art ziviler Ungehorsam das Verbot zu umgehen, beispielsweise indem sie vor der Umsetzung Erwachsenen-Konten erstellten oder zu anderen Apps wechseln. Auch die vielen Gen-Z-Jugendproteste, die sich 2025 in mehreren asiatischen, afrikanischen und lateinamerikanischen Ländern ereigneten, wurden nicht zuletzt deshalb ausgelöst, weil jungen Menschen von Regierenden das Internet abgedreht wurde. Wie junge Menschen, die als minderjährig eingestuft werden, ein flächendeckendes Verbot in Deutschland beantworten würden, wäre noch zu ermitteln.
Bessere Plattformen statt Altersbeschränkungen!
In der einschlägigen Forschung wird darauf hingewiesen, dass evidenzbasierte Grundlagen für ein umfassendes Verbot sozialer Medien bisher nicht erbracht wurden und Probleme wie Cybermobbing durch es nicht zu lösen sind (Rodriguez/Dezuanni/Heck 2025). Gleichwohl erwägen die Regierungen von Frankreich, Großbritannien und weiteren Ländern gegenwärtig ein generelles Verbot sozialer Medien für junge Menschen oder strikte Altersgrenzen für Kinder. Statt jedoch normative Altersgrenzen für den Zugang zu bestimmten Bereichen des Internets festzulegen, die die Rechte der Kinder auf Information, freie Meinungsäußerung, Beteiligung und eigene Vereinigungen einschränken, wäre es weiterführend, die Medienkompetenz von einem frühen Alter an zu stärken und gleichzeitig die Medienkonzerne in die Pflicht zu nehmen, kindgerechte Designvorgaben anzuwenden.
Es stehen auch verstärkte kollektive Bemühungen an, selbstbestimmte soziale Begegnungsräume junger Menschen zu entwickeln und digitale Plattformen zu schaffen, die nicht nach Profitprinzipien operieren, sondern transparent, gemeinwohlorientiert und verantwortungsbewusst gestaltet sind. Eine Basis hierfür, die im Sinne der Kinderrechte weiter ausgebaut werden könnte, gibt es bereits im Fediverse, einem Verbund mehrerer unabhängiger sozialer Netzwerke, die über offene Standards miteinander kommunizieren. Sie könnten als Startpunkt dienen, um ein kinder- und jugendgerechteres Internet aufzubauen, wobei junge Menschen selbst in ihre Entwicklung einzubeziehen wären.
Anmerkungen:
1 Siehe dazu unsere Überlegungen zu einem an den Kinderrechten orientierten Kinderschutz als Alternative zum bisher dominierenden paternalistischen oder adultistischen Kinderschutz (Liebel/Meade 2023, S. 275–284).
2 Siehe Code for Children’s Rights, University of Leiden and the Waag organisation, commissioned by the Ministry of the Interior and Kingdom Relations (letzter Zugriff: 10.01.2026)
3 Hier zitiert nach der Zusammenfassung von „Themenbereich 5 der EU-Kinderrechtsstrategie EU-Maßnahmen für eine sichere digitale Umgebung, in der Kinder alle gebotenen Chancen nutzen können“ (letzter Zugriff: 29.01.2026)
4 Siehe Deutscher Bundestag: Kinderfotos im Netz. Fachgespräch zu Sharenting und Kinderinfluencern und Experten zeigen sich alarmiert über die Praktiken von Kinder-Influencern (letzter Zugriff: 13.12.2025).
5 Auf junge Menschen bezogener Zusatz zu einem früheren Gesetz zur Regulierung digitaler Medien, bekannt als Social Media Ban (Australia 2024)
Literatur und Rechtsgrundlagen:
Angus, D.: Keine Panik: Australien sperrt Teens aus Social Media. In: IPG-Journal, 11.12.2025. Abrufbar unter: www.ipg-journal.de (letzter Zugriff: 11.12.2025)
Australia: Online Safety Amendment (Social Media Minimum Age) Act 2024. In: Commonwealth Numbered Acts, 2024. Abrufbar unter: www.austlii.edu.au (letzter Zugriff: 11.12.2025)
Bundesministerium der Justiz und für Verbraucherschutz: Jugendschutzgesetz (JuSchG). § 10a Schutzziele des Kinder- und Jugendmedienschutzes, 2021. Abrufbar unter: www.gesetze-im-internet.de
Claßen, J./Schwab, L./Kindling, R.: Kindeswohlgefährdung durch kommerzielle Veröffentlichung von Kinderfotos und ‑videos im Internet. Rechtsgutachten im Auftrag von Campact e. V., Verden/Aller, und des Deutschen Kinderhilfswerks. Berlin 2024. Abrufbar unter: blog.campact.de (letzter Zugriff: 07.12.2025)
Europäische Kommission: EU-Kinderrechtsstrategie. Luxemburg 2021. Abrufbar unter: kinderrechte-portal.de (letzter Zugriff: 11.12.2025)
Europäische Kommission: Leitlinien für Maßnahmen zur Gewährleistung eines hohen Maßes an Privatsphäre, Sicherheit und Schutz von Minderjährigen im Internet gemäß Artikel 28 Absatz 4 der Verordnung (EU) 2022/2065 (C/2025/5519). In: Amtsblatt der Europäischen Union, Reihe C, 10.10.2025. Abrufbar unter: eur-lex.europa.eu (letzter Zugriff: 11.12.2025)
European Parliament: Protection of minors online: European Parliament resolution of 26 November 2025 on the protection of minors online (2025/2060(INI). Abrufbar unter: static1.squarespace.com (letzter Zugriff: 11.12.2025)
European Union: Regulation (EU) 2022/2065 of the European Parliament and of the Council of 19 October 2022 on a Single Market for Digital Services and amending Directive 2000/31/EC (Digital Services Act), 2022. Abrufbar unter eur-lex.europa.eu
Hajok, D./Melber, A./Otto, A.: Kidfluencer*innen – zwischen Kinderzimmer, Kamera und Kooperationen. In: mediendiskurs, 20.09.2022. Abrufbar unter: mediendiskurs.online (letzter Zugriff: 08.09.2025)
Krause, T./Kretschmann, Y./Yacob, A.: Zum Begriff der persönlichen Integrität im Jugendschutz. In: Recht der Jugend und des Bildungswesens, 70 (4/2022), S. 629–635. Abrufbar unter: doi.org/10.5771/0034-1312-2022-4-629
Kutscher, N./Bouillon, R.: Kinder. Bilder. Rechte. Persönlichkeitsrechte von Kindern im Kontext der digitalen Mediennutzung in der Familie. Berlin 2018. Abrufbar unter: www.dkhw.de (letzter Zugriff: 29.01.2026)
Lavoipierre, A.: Constitutional challenge to social media ban is on the cards, and teen activists could be the key. In: ABC News, 11.10.2025. Abrufbar unter: www.abc.net.au (letzter Zugriff: 29.01.2026)
Liebel, M./Meade, P.: Adultismus. Die Macht der Erwachsenen über die Kinder. Eine kritische Einführung. Berlin 2023 (aktualisierte und erweiterte Auflage 2026, im Erscheinen)
Liebel, M./Meade, P.: Digitalisierte Kindheiten und globale Veränderungen in der Arbeit von Kindern. In: Diskurs Kindheits- und Jugendforschung, 21, (1/2026, im Erscheinen)
Matthews, C.: What 17,000-plus young people think about the social media ban. In: ABC News, 01.12.2025. Abrufbar unter: www.abc.net.au (letzter Zugriff: 29.01.2026)
Osman, K./Dezuanni, M./Genon, L. J. et al.: Young Australians’ perspectives on the social media minimum age legislation. In: APO – Australian Policy Online, 01.12.205. Abrufbar unter: apo.org.au (letzter Zugriff: 13.12.2025)
Polster, A.-K.: Kinderstars 2.0: Junge Medienpersönlichkeiten im Internet. Risiken für Entwicklung und Integrität, rechtliche Grenzen und die Rolle elterlicher Verantwortung für das Kindeswohl. In: Jugend Medien Schutz-Report, 44, (2/2021), S. 2–6. Abrufbar unter: doi.org/10.5771/0170-5067-2021-2-2
Rodriguez, A./Dezuanni, M./Heck, E.: Demystifying Australia’s teen social media ban. In: QUT Digital Media Research Centre, 03.2025. Abrufbar unter: research.qut.edu.au (letzter Zugriff: 11.12.2025)
Turnbull, T.: Teens launch High Court challenge to Australia’s social media ban. In: BBC, 26.10.2025. Abrufbar unter: www.bbc.com (letzter Zugriff: 29.01.2026)
UN-Ausschuss für die Rechte des Kindes: Allgemeine Bemerkung Nr. 25: Über die Rechte der Kinder im digitalen Umfeld, 2021. Abrufbar unter: www.kinderrechte.digital
Watson, K.: ’It’s insulting they think we can’t handle it’: The Australian teens banned from social media. In: BBC, 10.12.2025. Abrufbar unter www.bbc.com (letzter Zugriff: 13.12.2025)

Manfred Liebel (Foto: privat)
Prof. Dr. Manfred Liebel ist Prof. a. D. für Soziologie an der Technischen Universität Berlin, Honorarprofessor für interkulturelle Kindheits- und Kinderrechtsforschung an der Fachhochschule Potsdam und Mitglied des Beirats der National Coalition Deutschland – Netzwerk zur Umsetzung der UN-Kinderrechtskonvention.

Philip Meade (Foto: privat)
Dipl.-Päd. Philip Meade ist Lehrbeauftragter für Kindheits- und Kinderrechtsforschung an der Fachhochschule Potsdam und Lehrbeauftragter für Kinderschutz an der Alice-Salomon-Hochschule Berlin sowie stellv. Vorsitzender des Beirats der National Coalition Deutschland – Netzwerk zur Umsetzung der UN-Kinderrechtskonvention.

