Aktuelle Themen:
EMOTIONEN  |  GEWALT  |  KI  |  SOCIAL MEDIA

 

Die große Sehnsucht nach dem Stopp-Knopf gegen Unbehagen

Trends im gesetzlichen Jugendmedienschutz

Stephan Dreyer

Eine Glosse über die Trends, die den Jugendmedienschutz im Jahr 2026 beschäftigen werden.

Online seit 11.02.2026: Link

2026 ist der Jugendmedienschutz in seiner politischen Selbstbeschreibung wieder dort angekommen, wo er sich am sichersten fühlt: bei der Vorstellung, dass man komplexe gesellschaftliche Herausforderungen durch das Drücken eines einzigen großen Knopfes vollständig regeln kann. Der Button trägt wechselnde Aufschriften – mal „Verbot“, mal „Altersgrenze“, mal „Age Check“ – aber er verspricht stets dasselbe: schnelle Entlastung durch Unzweideutigkeit. In einer Zeit, in der Eltern überlastet sind, Schulen strukturell überfordert werden und Forschungsergebnisse widersprüchlich ausfallen, gewinnt ein Politikstil (nicht nur im Jugendmedienschutz) an Attraktivität, der Differenzierung und Ambivalenz als Schwäche behandelt und Sorgfalt und Differenzierung als unnütze Verzögerung missversteht.
 


Jugendmedienschutz wird zunehmend als Exekutive eines gefühlten Unbehagens verstanden.



Das ist nicht nur eine kommunikative, sondern eine normative Verschiebung: Jugendmedienschutz wird zunehmend als Exekutive eines gefühlten Unbehagens verstanden. Er soll nicht mehr nur verhindern, was evident gefährdet, sondern auch beruhigen, was sich gesellschaftlich unkontrollierbar anfühlt: digitale Öffentlichkeiten, algorithmische Logiken, digitale jugendliche Sozialisation und die schlichte Tatsache, dass es keine medienfreie Moderne mehr gibt.
 

1. Verbote als Vorboten politischer Vorschlaghammermethoden
 

Der erste und deutlichste Trend ist der Rückgriff auf Verbote als politisches Beruhigungsplacebo.

Nicht dass Verbote stets falsch wären, sondern weil sie nun als Ersatz für umfassende und einsichtige Strukturpolitik und evidenzsensibles Abwägen dienen. Die Schule als absolut geschützter staatlicher Raum und soziale Medien als der Ausbund der kommunikativen Abgründe und Höllen sind dafür ideale Labore. Beide Bereiche sind sichtbar, symbolisch aufgeladen und so gut ansprechbar, dass man Regulierung schnell in Hausordnungen bzw. Nutzungsbedingungen, Schulgesetze bzw. Medienrecht und in ministerielle Leitlinien und behördliche Aufsichtspraxis umsetzen kann. Dass mehr und mehr Länder und Behörden die private Smartphonenutzung an Schulen restriktiver fassen, ist keine Randnotiz mehr, sondern Teil dieses neuen Mainstreams. Auch die einem Kinderkarussell ähnlichen, mit jeder Runde von neuem auftauchenden Verbots- und Mindestalterforderungen aus fast allen politischen Richtungen fühlen sich an wie die Überzeugung, dass man zur Lösung komplexer Probleme einfach noch nicht oft genug auf die vermeintlich einfache Lösung hingewiesen hätte. 

Die Pointe liegt weniger im Ob als im Wie der Debatte. Während die Digitalisierung als nationale Zukunftsaufgabe mit großem Brimborium (und 40 Jahre zu spät) in Angriff genommen wird, gewinnt im Jugendmedienschutz gleichzeitig eine diametrale Gegenbotschaft an Kraft: Digitale Geräte und Angebote sind mentale Risikotechnik. Das Ergebnis ist eine diskursive Schieflage, in der man in digitale Infrastruktur investiert (auch in Schulen übrigens) und zugleich so spricht, als sei die zentrale Innovation der Medienbildung der Ausschluss. Aus Governance-Sicht wirkt das wie ein Modernisierungsprogramm ohne Betriebskonzept: Hardware ja, Personal nein; Geräteverfügbarkeit ja, didaktische Implementierung und Medienbildung als Daueraufgabe nein. (Das ist übrigens keine überspitzte Polemik, sondern das typische Muster von Symbolpolitik: schnell oberflächlich handeln, den Rest vergessen; sichtbare Investition, unberücksichtigte Folgekosten.)

Am zugespitztesten – und bisweilen emotionalsten – ist der Ruf nach Verboten im Social-Media-Bereich („Schlimmer als Drogen!“). Die Forderung nach gesetzlichen Altersgrenzen und Nutzungsverboten gewinnt in europäischen und außereuropäischen Ländern seit dem Frühling 2025 vehement an Dynamik. Nach Australien, Griechenland und Frankreich suchen derzeit unter anderem Dänemark, Irland, Österreich und Norwegen nach Umsetzungsmöglichkeiten für eine Social Media-Altersgrenze. Allen rechtlichen Hürden, Umsetzungsherausforderungen und Umgehungsmöglichkeiten zum Trotz. Auch in Deutschland wird das Thema politisch und parlamentarisch an gefühlt allen politischen Institutionen verhandelt; derzeit geben sich die Sachverständigen bei Anhörungen auf Ebene des Bundestags, der Bundesministerien und der Landtage die warme Klinke in die Hand. 
 


Wenn Heranwachsende aus zentralen Kommunikationsumgebungen verdrängt werden, entstehen Umgehungspraktiken, neu genutzte Schattenangebote und einmal mehr verstärkte Ungleichheiten.



Dabei zeigt sich ein wiederkehrender Kurzschluss in der Torschlusspanik: Plattformen sind zentrale Kommunikationsräume, Informationsinfrastrukturen und Sozialisationsräume auch für Jüngere. Wer sie aus dem Leben von Heranwachsenden herausdefiniert, reguliert nicht nur Risiken, sondern auch wichtige Teilhabechancen. Der Jugendmedienschutz 2026 tendiert dazu, diesen Teil der Gleichung zu übersehen – vermutlich, weil Schutzlogiken in der politischen Arena rhetorisch einfacher zu verkaufen und schneller mehrheitsfähig sind als Befähigungs- und Teilhabemaßnahmen. Außerdem kosten sie (den Staat) auch nichts, eine Win-Win-Situation in der politischen Ökonomie. Der Satz „Wir werden uns noch umschauen“ ist daher weniger Drohung als Prognose: Wenn Heranwachsende aus zentralen Kommunikationsumgebungen verdrängt werden, entstehen Umgehungspraktiken, neu genutzte Schattenangebote und einmal mehr verstärkte Ungleichheiten, während sich die Plattformanbieter ins Fäustchen lachen: Sie können die aufwendigen und teuren Jugendschutzmaßnahmen zusammenstreichen, weil die Jüngeren per gesetzlichem Verbot nicht mehr Teil der User-Community sind. 

Dass bei alledem die differenzierende wissenschaftliche Evidenz häufig – sagen wir mal höflich – selektiv verarbeitet wird, ist kein neues Phänomen, aber 2026 wirkt das besonders folgenreich. Die Debatte oszilliert nur noch zwischen Alarm und Abwehr. Ambivalente Befunde werden als wissenschaftliche Unentschiedenheit gelesen, methodische Vorsicht (Korrelation ist nicht Kausalität) als mangelnder Interpretationswille. Forschende mit validen Studienergebnissen werden unverzüglich einer politischen Richtung oder gar Ideologie zugeschrieben. Das Resultat ist eine Art Evidenzpopulismus: Man nutzt Studien gerne als Legitimationsunterstützung für das eigene Argument, aber ungern als Anlass, differenziert über Mechanismen, Kontexte, Teilgruppen und Nebenfolgen zu sprechen.
 

2. Wenn uns das Alter nicht behagt: Age Assessment für wen und wie intrusiv?
 

Eng verwoben mit gesetzlichen Altersgrenzen für ganze Dienstetypen öffentlicher Kommunikation sind technische Verfahren der Altersüberprüfung

Altersprüfungen sind das regulatorische Schweizer Taschenmesser von 2026: Sie passen überall, lösen alle unsere Probleme und sind bestenfalls unsichtbar, so die Erzählung. In der Praxis kollidieren dabei drei Ziele, die sich nur begrenzt gleichzeitig maximieren lassen: Effektivität, Privatheit und Niedrigschwelligkeit – man kann nicht alle drei haben.

Auf EU-Ebene wird der Versuch sichtbar, diese Kollision (wiederum) durch Technik zu entschärfen: Die Kommission verweist auf ihre derzeit im Test befindliche Altersverifikations-Blueprint-Lösung, die (zunächst nur) einen Nachweis „über 18“ ermöglichen soll, ohne weitere personenbezogene Daten preiszugeben, und die kompatibel zu künftigen EU-Digital-Identity-Wallets ist. Parallel hat die Kommission Leitlinien zum Schutz Minderjähriger unter dem DSA veröffentlicht, die „angemessene und verhältnismäßige“ Maßnahmen betonen und eine nicht abschließende Liste möglicher Schritte skizzieren, darunter auch und sehr ausführlich Altersüberprüfungen. In der juristischen Feinarbeit liegt hier der eigentliche Sprengstoff: „Angemessen und verhältnismäßig“ bedeutet eben nicht „Alterscheck überall“. Es bedeutet kontextsensitive Abwägung: Risiken, Zielgruppen, Diensttyp, Nebenfolgen; die Plattformanbieter haben hier Bewertungs- und Entscheidungsspielräume, schließlich sind die Inhalte und Funktionalitäten jeder Plattform ein wenig anders. Außerdem beinhaltet der EU-Ansatz eine Verantwortlichkeitsherausforderung: Die Plattformen bleiben verantwortlich, auch wenn sie Alterslösungen Dritter (ausgelagerte Altersschätzungen; Verfahren auf Betriebssystem- oder Geräte-Ebene) nutzen. Das ist im Grundsatz richtig und kann Verantwortungsdiffusion vermeiden, macht aber die Governance schwieriger. Wer haftet wofür, wenn die Altersprüfung technisch ausgelagert, rechtlich aber weiter zugerechnet wird?
 


Altersprüfungen sind das regulatorische Schweizer Taschenmesser von 2026.



Die politische Debatte kippt passend zu der Einseitigkeit der Risikobeschreibungen häufig in ein binäres Schema: „Ohne Alterscheck kein Schutz“. Das übersieht zwei Dinge. 

Erstens ist jede Pflicht zur Altersüberprüfung eine Infrastrukturentscheidung. Wenn man sie einmal in der Fläche implementiert, ist sie schwer zurückzubauen und drängt fortwährend zu Funktionsausweitungen (in Bezug auf Themen und Phänomene, vor denen geschützt werden „muss“, und in Bezug auf Dienste und Angebote, die vermeintlich riskant sind). Aus einem absehbaren „function creep“ wird ein tendenziell grenzenloses Instrument zur Beschränkung des Zugangs zu Informations- und Kommunikationsdiensten, eine Diskriminierungstechnologie als „Massenkommunikationsvernichtungswaffe“.

Zweitens: Altersüberprüfung berührt Grundfragen demokratischer Öffentlichkeiten. Denn Altersverifikation kann, je nach Implementierung, Anonymität und pseudonyme Teilhabe erschweren und verkleinert damit gerade jene Schutzräume, die für vulnerable Jugendliche besonders bedeutsam sein können. Übrigens bedeuten Altersgrenzen für zu junge User immer Altersüberprüfungsverfahren für alle Nutzenden, auch uns Erwachsene. Dass macht Alterschecks potenziell zu Mini-Nukes, die mit ihren Schrapnellen ganz im Vorbeigehen die Informationsfreiheit von allen Bürgerinnen und Bürgern mindestens ankratzen. 
 

3. KI-keri-KI: künstliche Intelligenz statt intelligenter Kunst
 

2026 ist KI nicht mehr „das Neue“, sondern „das Überall“

Gerade deshalb verändern sich die jugendmedienschutzrechtlichen Fragen schnell und vehement: Weg von der Frage, ob KI Risiken erzeugt, hin zu der Frage, welche Risiken in welchen Umgebungen und im Rahmen welcher Nutzungspraktiken dominieren – und welche Steuerungslogiken überhaupt greifen. 

KI-Chatbots sind für viele Jugendliche längst Alltagswerkzeug. Dabei wird KI wegen des personalisierten, fähigkeitssensiblen Lernens als Chance und wegen der epistemischen Autoritätsverschiebung zugleich als Herausforderung diskutiert. Die eigentliche Regulierungsfrage sollten dabei aber weniger die „Inhalte“ als die „Beziehung“ sein: Was macht es mit Informations-, Lern- und Autonomieprozessen, wenn die erste Instanz des Fragens nicht mehr Lehrkräfte, Bücher, journalistische Quellen, Eltern oder Peergroup sind, sondern ein dialogisches System mit unklaren Priorisierungs- oder Interessenstrukturen und wechselnder Zuverlässigkeit? Die Antwort ist komplex, aber 2026 werden uns hier – so meine starke Vermutung – wiederum Verbote und Altersgrenzen der KI-Nutzung begegnen.
 


Die eigentliche Regulierungsfrage sollten dabei aber weniger die „Inhalte“ als die „Beziehung“ sein.



Erst am Anfang scheint dagegen der Diskurs um die Wirkung von „AI Slop“ zu sein, also dem massenhaften, repetitiven, niedrigwertigen KI-Content-Geraffe im Netz. Das ist nicht nur ein äußerst relevantes Kulturphänomen (Stichwort „Enshittification“), sondern auch eine jugendmedienschutzrelevante Qualitätsfrage für 2026. Wenn Informationsumgebungen durch synthetische Massenproduktion verrauschen, steigen Manipulationsrisiken, vernebeln verlässliche epistemische Orientierungspunkte und sinken die Grenzen zwischen Unterhaltung, Werbung und politischer Einflussnahme. Dass Plattformen hier teils deutlich gegensteuern, hat nicht nur normative, sondern handfeste ökonomische Gründe: Man verstärkt Maßnahmen gegen solchen KI-Spam auch, um Werbekunden und Plattformreputation zu schützen. Beobachtbare Konsequenzen in der Nutzung durch Jüngere sind derzeit (noch) Rückgänge in ihrem epistemischen Vertrauen, mittelfristig aber kann hier die Chance in einer Umorientierung zu verlässlich(er)en Wissensangeboten liegen, vielleicht bis hin zu einer Renaissance menschengemachter Wissensarbeit. Der greifbarste Teil der KI-Diskurse bleibt dagegen der Umgang mit den KI-basierten Phänomen bildbasierter sexualisierter Gewalt. Deutschland diskutiert und verfolgt die gesetzgeberische Einführung eines spezifischen Straftatbestands zum Schutz vor digitalen Fälschungen (§ 201b StGB‑E), um die technikspezifische Unrechtserfahrung im Persönlichkeitsrecht besser abzubilden, wo klassische Tatbestände (Beleidigung, üble Nachrede, Aufnahmen aus dem höchstpersönlichen Lebensbereich) strukturell schwächeln.

Außerdem hat die KI noch ein Gastspiel in einem bereits angesprochenen Kontext: Je mehr die Politik Online-Altersprüfungen fordert, desto stärker wird KI als praktikabler bzw. niedrigschwelliger Weg der Altersschätzung ins Spiel kommen. Plattformanbieter in Australien umgehen die Pflicht zum Alterscheck aller bestehenden User dadurch, dass sie mit kaum greif- und sichtbaren Inferenzanalysen hunderte von Verhaltenssignalen aller Nutzenden aufzeichnen und auf dieser Basis eine plattformseitige Altersschätzung vornehmen. Nur die zu jung Geglaubten müssen dann ihr Alter mit Ausweis oder Webcam nachweisen. Damit verschiebt sich die Debatte von der Interaktion (Beweise dein Alter!) zur intransparenten einseitigen Technik (Ich schätze, du bist zu jung!) und landet so schnell bei Fragen von Bias, Fehlerquoten und Missbrauchspotenzialen. Politik und Gesellschaft werden hier 2026 eine Grundsatzentscheidung treffen müssen: Wollen wir Jugendmedienschutz als Infrastruktur einer ubiquitären Beobachtung und Kontrolle oder als Gerüst kommunikativer Selbstbestimmung und Entfaltung organisieren?
 

4. Hatschi – Gesundheit – danke, gleichfalls: Jugendmedienschutz als Gesundheitsvorsorge
 

Der vierte und für diesen Beitrag letzte Trend ist die starke Gesundheitsaufladung der Jugendmedienschutz-Governance

Einsamkeit, psychische Belastung, suchtähnliches Verhalten – das sind zunehmend Themen, die nicht mehr nur (klassischerweise) in der öffentlichen Gesundheitsvorsorge verhandelt werden, sondern mit der Ausweitung des Jugendmedienschutzes auf Risiken für die „persönliche Integrität“ zunehmend auch in diesem Rechtsbereich diskutiert und als Beweggrund digitalpolitischer Interventionen genutzt werden: Dadurch steigt erstens der Druck auf den Staat, digitale Umgebungen insgesamt als Risiko- und Präventionsräume zu adressieren, statt als offene Informations- und Kommunikationsumgebungen zu bewahren. Und zweitens wächst die Versuchung, aus gesundheitlichen Korrelationen unmittelbare Regulierungspflichten auch im Jugendschutz abzuleiten, ohne Mechanismen und Faktoren sauber zu identifizieren und auszudifferenzieren. Forschungsgestützte Hinweise etwa auf steigende problematische Social-Media-Nutzung verlangen aber genau diese Sorgfalt. Ohne sie liefert das vielleicht den Anlass zur Intervention, aber nicht automatisch den Beweis für die Wirksamkeit der Verbotsmaßnahme. Der DSA macht es da eigentlich besser, wo er Plattformen – jedenfalls theoretisch – stärker in eine Risikopräventionsrolle zwingt (siehe Art. 28 DSA). Dort wird sichtbar, dass sich Jugendschutz nicht mehr nur als „Entfernung illegaler Inhalte“ beschreiben lässt, sondern als Gestaltung von Aufmerksamkeits- und Interaktionsarchitekturen. Letzteres ist deswegen ein vorzugswürdiger Ansatz im Vergleich zur rein gesundheitsbezogenen Jugendschutzprävention, weil darüber auch weniger gesundheitsbezogene Risiken mit abgedeckt werden, etwa in Richtung von Produkt- und Datensicherheitsrisiken, Datenschutz und Verbraucherschutz.
 


Einsamkeit, psychische Belastung, suchtähnliches Verhalten [… ] [werden] mit der Ausweitung des Jugendmedienschutzes auf Risiken für die „persönliche Integrität“ zunehmend auch in diesem Rechtsbereich diskutiert.



Schließlich wird 2026 das Jahr der Weichenstellung für die rechtliche Umhegung von (Online-)Games: Bislang regulatorisch relativ geschont, rücken Computerspiele und ihre (wiederum gesundheitsbezogenen) Risikopotenziale über die inhaltlichen Wirkungen hinaus stärker in den gesetzlichen und regulatorischen Fokus der EU. Mit dem Digital Fairness Act wird hier im Herbst ein Verordnungsentwurf diskutiert werden, der Jugendschutz dann ggf. auch auf EU-Ebene als Gestaltungsproblem aller elektronischen Dienste inklusive Games weiterdenkt.
 

„Und ich?“, fragt leise das Recht auf Befähigung

Bei den vielen Diskussionen über Verbote und Altersgrenzen verkommen Fragen besserer Befähigung zu Schönwetterthemen. Dabei wäre Befähigung nicht das „Weichspülprogramm“ des Jugendmedienschutzes, sondern seine nachhaltigste Infrastrukturlösung: Medienkompetenz, Risikowahrnehmung, Unterstützung zur und bei der Selbstregulation, Beschwerde- und Hilfe(such)kompetenz, die Fähigkeit, digitale Systeme als gestaltete Systeme mit einer extern gesetzten Intention zu verstehen und entsprechend reflektiert und kritisch zu nutzen. Interessanterweise sprechen selbst restriktive Schulordnungsansätze und suchtrisikoorientierte Praktiker*innen häufig genau diese Sprache – im politischen Schlagabtausch aber bleibt sie vollkommen unterrepräsentiert.

Die These lautet vor diesem Hintergrund: Befähigung scheint der Teil des Jugendmedienschutzes zu sein, den man am leichtesten fordert und am schwierigsten finanziert. Verbote brauchen „nur“ politische Mehrheiten, Befähigung dagegen kostet dauerhaft Personal, Zeit, Fortbildung und Evaluation – und damit genau jene Ressourcen, die in der öffentlichen Debatte gern nachrangig behandelt werden, weil sie eben nicht der Ökonomie schneller politischer Mehrheiten folgen und sich in Zeiten schwindender staatlicher Ressourcen nicht unmittelbar budgetkompatibel zeigen.
 

„Vergiss es!“, beklagt laut das Recht auf Beteiligung

Der vielleicht folgenreichste blinde Fleck in den beschriebenen Jugendmedienschutzentwicklungen bleibt die Beteiligung: Kinder und Jugendliche werden als Schutzobjekte verhandelt, gerne auch komplett ohne ihre Einbindung. Dabei sind sie relevante Akteure wie wir alle, mit Blick auf ihre Kinderrechte sogar noch mehr als wir Erwachsenen. Dass sie eine maximal marginale Rolle in den aktuellen politischen Diskursen haben, ist nicht nur pädagogisch unerquicklich und borderline-adultistisch, sondern governancetheoretisch auch kontraproduktiv: Wer Schutzregeln ohne Perspektiven der „Beschützten“ erlässt, bekommt statt Akzeptanz und Mitgestaltungswillen eher Widerstand, Umgehung und – letztlich – Legitimationsdefizite. Auf der EU-Ebene wird zwar rhetorisch stärker auf Kinderrechte und „child sensitive approaches“ Bezug genommen. Doch die politische Praxis von Parlament und Rat zeigte noch 2025: Beteiligung bleibt der leise Ruf hinter den Vorhängen des politischen Tagesgeschäfts, während Verbote und Alterschecks die ganz großen Lautsprecher bekommen. In der Konsequenz droht Jugendmedienschutz zu einem Ordnungsrahmen der Politiker- und Elternberuhigung mit dem paradoxen Ergebnis zu werden, dass man Jugendliche von jenen Öffentlichkeiten fernhält, in denen demokratische Selbstwirksamkeit heute eingeübt wird bzw. werden sollte.
 

Schade Schokolade: Symbolpolitische Reflexe statt zeitgemäßer unbeschwerter Teilhabe 

Am Ende scheint der Digital Fairness Act die spannendste europäische Entwicklung, weil er die Debatte aus dem moralischen Reflex des Verbietens in eine (hoffentlich) strukturelle Frage zu überführen vermag: Welche digitalen Geschäfts- und Designpraktiken sind gegenüber Verbraucher*innen – auch und gerade gegenüber Minderjährigen – unfair im Sinne eines einseitigen Machtungleichgewichts oder einer wirtschaftslogikgetriebenen Ausnutzung? Die bisherigen Überlegungen der EU dazu beschreiben die Zielrichtung deutlich: Dark Patterns, Influencer-Marketing, süchtig machendes Design, übergriffige Beobachtung und Personalisierung und die Ausnutzung von Vulnerabilitäten weisen auf kommende rote Linien in der Gestaltung von Informations- und Kommunikationsdiensten hin. 

Wenn aber die Gestaltung rechtlich umhegt und altersabhängig ausdifferenziert würde, brauchen wir dann wirklich noch die Debatte über allgemeine Altersgrenzen? Solche Fairness-Ansätze könnten Jugendschutz aus der Sackgasse von Totalverboten holen, weil sie an Gestaltungsbedingungen ansetzen, also dort, wo Risiken entstehen, ohne digitale Teilhabe pauschal zu negieren. Sie wären damit weder weich noch naiv, sondern vor allem ein fähigkeitenbasierter Regelungsrahmen für eine altersangemessene Gestaltung der Digitalität. Ob die Schallwellen dieser Einsicht die Köpfe der relevanten Entscheider erreicht, mag oder will dieser Beitrag zu den 2026er-Trends nicht vorausahnen.