Social-Media-Mindestalter: Deutschland diskutiert

Aktuelle Umfragedaten der Krankenkasse DAK zeigen ein zunehmendes Suchtverhalten bei Schülerinnen und Schülern. Mehr als jedes vierte Kind im Alter zwischen 10 und 17 Jahren in Deutschland weist problematische Nutzungsmuster auf. Das entspricht über 1,3 Millionen Betroffenen (zdf heute, 2026).
Eine problematische Nutzung sozialer Medien kann erhebliche Auswirkungen auf die psychische Gesundheit haben: Viele der befragten Jugendlichen berichten von Niedergeschlagenheit, Angstgefühlen und Stress (DAK-Onlineredaktion, 2026). Nachdem in Australien bereits seit dem 10. Dezember ein Social-Media-Verbot für unter 16-Jährige in Kraft ist, haben die alarmierenden Umfragewerte auch hierzulande die Debatte darüber verstärkt, welche Maßnahmen geeignet wären, problematischer Nutzung entgegenzuwirken (zdf heute, 2026).
Die vorgeschlagenen Altersgrenzen variieren: Während einige 13 Jahre für angemessen halten, plädieren andere für 16 oder sogar 18 Jahre als Mindestalter für soziale Medien. Mit einem Verbot verbinden viele die Hoffnung, negative Folgen der Social-Media-Nutzung wirksam einzudämmen (LFK, 2026).
Wie sieht das Social-Media-Verbot in Australien aus?
Die gesetzliche Grundlage bildet die bereits 2024 verabschiedete „Online Safety Amendment (Social Media Minimum Age) Bill 2024“ (Stürmer, 2025a) Demnach dürfen Jugendliche unter 16 Jahren soziale Medien nicht mehr nutzen. Betroffen sind insbesondere große Plattformen wie Facebook, Instagram, Snapchat, Threads, TikTok, Twitch, X, YouTube, Kick und Reddit.
Als altersbeschränkte Plattformen gelten Dienste, die
- wesentlich oder alleinig der sozialen Online-Interaktion zwischen zwei oder mehr Nutzerinnen und Nutzern dienen,
- die es ermöglichen Endbenutzern, mit einigen oder allen anderen Endbenutzern zu verlinken oder mit ihnen zu interagieren,
- das Veröffentlichen von Inhalten erlauben (esafetyCommissioner, 2025)
Jugendliche unter 16 Jahren sowie ihre Eltern oder Erziehungsberechtigten machen sich durch die Nutzung nicht strafbar. Allerdings können Plattformbetreiber sanktioniert werden, wenn sie keine angemessenen Maßnahmen ergreifen, um Konten Minderjähriger zu verhindern (esafetyCommissioner, 2025)
Im Zentrum des Verbots stehen das Wohlbefinden und der Schutz junger Menschen. In ihrer Rede auf dem Global Age Assurance Summit betonte eSafety-Kommissarin Julie Inman Grant, dass viele Social-Media-Plattformen mit algorithmischer Manipulation und gezielt eingesetzten Design-Elementen arbeiten, die eine möglichst lange Nutzung fördern. Etwa durch endloses Scrollen oder andere aufmerksamkeitsbindende Mechanismen (Inman Grant, 2025).
Zugleich warnt sie vor einem leichten Zugang zu teils hoch problematischen Inhalten. Dazu zählen gewaltvolle oder zunehmend extreme pornografische Darstellungen, Webseiten, die gewalttätigen Extremismus fördern, sowie Inhalte, die sich negativ auf die psychische Gesundheit auswirken können – etwa im Zusammenhang mit essgestörtem Verhalten, Suizidgedanken oder geschlechtsspezifischer Gewalt (Inman Grant, 2025).
Verbot auf EU-Ebene: Welche Maßnahmen werden diskutiert?
Auf EU-Ebene werden derzeit verschiedene Maßnahmen zum besseren Schutz von Minderjährigen im Netz vorangetrieben. Bereits im Juli 2025 veröffentlichte die EU-Kommission Leitlinien zum Schutz Minderjähriger online. Diese enthalten Empfehlungen für Plattformen, etwa sichere Voreinstellungen für Kinder, verlässliche Alterskontrollen, private Profile, die Begrenzung suchtfördernder Funktionen wie Autoplay oder endloses Scrollen sowie Unterstützungsangebote für Eltern. Die Leitlinien sind jedoch rechtlich nicht verbindlich. Jedoch verpflichtet der Digital Services Act (DSA) Online-Plattformen EU-weit zu bestimmten Schutzmaßnahmen, auch für Minderjährige. Bei Verstößen drohen insbesondere großen Plattformen empfindliche Geldstrafen von bis zu sechs Prozent ihres weltweiten Jahresumsatzes (Stürmer, 2025b).
Das Europäische Parlament spricht sich in einer Resolution aus dem November 2025 für strengere Regelungen aus. Gefordert wird unter anderem ein einheitliches Mindestalter von 16 Jahren für die Nutzung von Social Media, Video-Plattformen und KI-Angeboten. Kinder unter 13 Jahren sollen diese Dienste grundsätzlich nicht nutzen dürfen. Für 13- bis 16-Jährige soll eine nachweisbare Zustimmung der Eltern erforderlich sein (Stürmer, 2025b).
Ein nationales oder EU-weites Social-Media-Verbot müsste jedoch dem Grundsatz der Verhältnismäßigkeit entsprechen. Da ein solches Verbot erheblich in die Grundrechte von Plattformbetreibern sowie insbesondere von Kindern und Jugendlichen eingreifen würde, wäre es nur zulässig, wenn es einem legitimen Zweck dient, geeignet, erforderlich und angemessen ist. Ob ein Verbot tatsächlich geeignet ist, schädliche Online-Einflüsse zu verhindern, ist fraglich. Es gibt bislang kaum belastbare Belege für positive Effekte entsprechender Verbote, zudem könnten sie vergleichsweise leicht umgangen werden. Auch die Erforderlichkeit wird bezweifelt, da mildere Maßnahmen wie eine altersgerechte Plattformgestaltung denselben Schutzzweck erreichen könnten, ohne die digitale Teilhabe junger Menschen stark einzuschränken (LFK, 2026)Darüber hinaus würde ein Verbot Rechte wie Informations- und Meinungsfreiheit sowie das Kinderrecht auf Teilhabe und Befähigung berühren. So könnten Jugendliche von relevanten Informationen, sozialen Kontakten und auch positiven Inhalten ausgeschlossen werden. Besonders widersprüchlich erscheint ein Verbot vor dem Hintergrund, dass 16-Jährige in vielen Bundesländern bereits an Wahlen teilnehmen dürfen (LFK, 2026)
Zwischen Jugendschutz und Grundrechten: Die Debatte in Deutschland
Die Debatte um ein Mindestalter für soziale Medien gewinnt in Deutschland und auf EU-Ebene zunehmend an Fahrt. Laut einer repräsentativen Umfrage von infratest dimap für den ARD-DeutschlandTREND (1.–3. Dezember, 1.306 Wahlberechtigte) halten 64 Prozent der Deutschen ein Mindestalter von 13 Jahren für soziale Netzwerke, Videoplattformen und KI-Chatbots für angemessen. 19 Prozent gehen die Vorschläge nicht weit genug, 14 Prozent hingegen zu weit. Die Zustimmung zieht sich durch alle Altersgruppen. Zum aktuellen Zeitpunkt dürfen in Deutschland Minderjährige erst ab 16 Jahren selbst in die Nutzung ihrer Daten für Dienste wie Social Media einwilligen, vorher ist rechtlich die Zustimmung der Eltern nötig. Es gibt allerdings keine Alterskontrollen (Stürmer, 2025b)
Politisch wird unterschiedlich über die konkrete Ausgestaltung diskutiert. Die SPD schlägt in einem Positionspapier ein gestuftes Modell vor: Für unter 16-Jährige soll eine verpflichtende „Jugendversion“ von Plattformen gelten ohne algorithmisch gesteuerte Feeds, personalisierte Inhalte oder suchtverstärkende Funktionen wie Endlos-Scrollen, Autoplay oder Push-Benachrichtigungen. Der Zugang soll über die geplante europäische digitale Identitätslösung, EUDI-Wallet, der Erziehungsberechtigten erfolgen, die ab 2027 verfügbar sein soll. Während einzelne Politikerinnen und Politiker ein Verbot prüfen wollen, sprechen sich andere klar dagegen aus und plädieren stattdessen für strengere Regulierung und Kontrolle der Plattformbetreiber (Pfeffer, 2026)
Ein pauschales Verbot sozialer Medien würde auch in Deutschland mit Grundrechten kollidieren. Kinder und Jugendliche haben das Recht auf Informationsfreiheit. Gleichzeitig liegt die Erziehungsverantwortung in Deutschland gemäß Artikel 6 Absatz 2 des Grundgesetzes grundsätzlich bei den Eltern. Der Staat darf nur eingreifen, wenn das Kindeswohl konkret gefährdet ist und die Eltern ihrer Schutzfunktion nicht nachkommen. Ob die Risiken durch algorithmische Systeme eine solche Eingriffsschwelle erreichen, wird jedoch vielfach bezweifelt. Eine allgemeine Gefährdungsannahme gilt bislang als nicht ausreichend, um das Elternrecht weitreichend einzuschränken. Hinzu kommt, dass Deutschland an europäisches Recht gebunden ist. Der Digital Services Act (DSA) schafft EU-weit einheitliche Vorgaben für Plattformen. Ein nationaler Alleingang wäre daher rechtlich und politisch erschwert, es sei denn, ein entsprechendes Mindestalter, etwa für unter 13-Jährige, würde auf EU-Ebene beschlossen (Stürmer, 2025b).
Quellen und weiterführende Informationen
DAK Onlineredaktion. (2026). Social-Media-Sucht bei Jugendlichen. DAK Gesundheit. https://www.dak.de/dak/gesundheit/psychische-gesundheit/sucht/social-media-sucht-bei-jugendlichen_85778 [17.02.2026]
esafetyCommissioner. (2025). Social media age restrictions. esafetyCommissioner. https://www.esafety.gov.au/about-us/industry-regulation/social-media-age-restrictions [17.02.2026]
freepik (o. D.). Handheld-Smartphone-Sozialmedia-Konzept [Bild]. freepik. https://de.freepik.com/fotos-kostenlos/handheld-smartphone-sozialmedia-konzept_38689788.htm#fromView=search&page=3&position=3&uuid=d26a4003-981f-408a-b962-179adde08eda&query=social+media+ [17.02.2026]
LFK. (2026). „Social-Media-Verbot“ – Worum geht’s?. Landesanstalt für Kommunikation Baden-Württemberg (LFK). https://www.lfk.de/regulierung/social-media-verbot [17.02.2026]
Pfeffer, Kilian. (2026). SPD fordert Social-Media-Verbot für Kinder unter 14. Tagesschau. https://www.tagesschau.de/inland/innenpolitik/spd-positionspapier-social-media-verbot-100.html [17.02.2026]
Stürmer, Ariane. (2025a). Jugend ohne Social Media: Wie Australien sein Verbot umsetzt. BR24. https://www.br.de/nachrichten/netzwelt/jugend-ohne-social-media-wie-australien-sein-verbot-umsetzt,V4ggsK8 [17.02.2026]
Stürmer, Ariane. (2025b). Problemfall Social Media: Wie die EU Jugendliche schützen will. BR24. https://www.br.de/nachrichten/netzwelt/problemfall-social-media-wie-die-eu-jugendliche-schuetzen-will,V4n6fLe [17.02.2026]
Inman Grant, J. (2025). A fairer fight: protecting childhood and adolescence in a digital world. esafetyCommissioner. https://www.esafety.gov.au/newsroom/blogs/a-fairer-fight-protecting-childhood-and-adolescence-in-a-digital-world [17.02.2026]zdf heute. (2026). Social-Media-Verbot für Kinder? Debatte nimmt Fahrt auf. zdf heute.https://www.zdfheute.de/politik/deutschland/social-media-verbot-kinder-jugendliche-studie-sucht-100.html [17.02.2026]




