Kinder in der Echokammer: Wie Social Media zur Radikalisierung beitragen kann
Soziale Netzwerke sind aus unserem Alltag kaum noch wegzudenken. Nicht nur Erwachsene, sondern auch Kinder und Jugendliche nutzen sie. Dabei sind sich gerade Kinder der Gefahren, die das Internet bergen kann, oft noch nicht bewusst und dadurch besonders anfällig für sie. Eine oft unterschätzte Gefahr ist das Radikalisierungspotential der sozialen Medien. Extremistische Gruppierungen haben das Internet schon lange für sich entdeckt, um neue Mitglieder zu gewinnen. Junge Menschen können dabei aufgrund ihrer mangelnden Erfahrung ein leichtes Ziel sein.
Kinder auf Social Media
Wie die KIM-Studie 2022 feststellte, nutzen 70 % der Kinder zwischen sechs und 13 Jahren das Internet, knapp die Hälfte davon sind täglich oder fast täglich online. Mit zunehmendem Alter nimmt auch die Nutzung zu: Bei den Zwölf- bis 13-Jährigen sind es schließlich sogar 99 %, die das Internet nutzen, 72 % davon (fast) täglich. Mehr als die Hälfte der befragten Kinder gab dabei an, meist alleine zu surfen; nur 19 % surften meist im Beisein der Eltern im Internet. Auch hier gilt: Je älter die Kinder sind, desto eher sind sie alleine online unterwegs. Bei den Sechs- bis Siebenjährigen gaben dies noch 30 % an, bei den Zwölf- bis 13-Jährigen waren es schon 79 %.
Am häufigsten schauen die Kinder laut der Studie Filme oder Serien und schreiben Nachrichten auf WhatsApp. Das am häufigsten genutzte soziale Netzwerk ist YouTube (von 64 % wöchentlich oder öfter genutzt), gefolgt von TikTok (37 %), Instagram (23 %), Snapchat (20 %) und Facebook (19 %). Es zeigt sich auch hier, dass ältere Kinder eher auf Social Media unterwegs sind. So sind etwa 40 % der Zwölf- bis 13-Jährigen auf Instagram und sogar 53 % dieser Altersgruppe auf TikTok. Auch bei der Frage nach Idolen und Vorbildern spielt Social Media für Kinder eine Rolle: 6 % der Kinder nennen als ihr liebstes Vorbild bzw. Idol eine Person aus den sozialen Medien.
Dabei dürften Kinder die meisten dieser Plattformen noch gar nicht nutzen: Instagram schreibt für die Anmeldung ein Mindestalter von 13 Jahren vor, ebenso Snapchat und Facebook. Auch bei TikTok gibt es ein Mindestalter von 13 Jahren, aber mit zusätzlichen Einschränkungen: Die Direktnachrichten-Funktion etwa kann erst ab 16 genutzt werden, die Live-Streaming-Funktion sowie die „virtuellen Gegenstände“, eine Art In-App-Währung, sogar erst ab 18. Am höchsten ist die Altersbeschränkung bei YouTube: Die Plattform darf eigentlich erst ab 16 Jahren genutzt werden und unter 18 Jahren nur mit dem Einverständnis der Erziehungsberechtigten. Zudem schreibt Artikel 8 der DSGVO vor, dass bei der Verarbeitung personenbezogener Daten von Personen unter 16 Jahren die Zustimmung der Erziehungsberechtigten notwendig ist.
Die Sicherheitsmaßnahmen der sozialen Netzwerke
Die Maßnahmen, mit denen die Plattformen verhindern wollen, dass Kinder sich anmelden, sind meist überschaubar. In aller Regel wird bei der Registrierung das Geburtsdatum abgefragt. Befindet sich die Person laut diesem unter dem Mindestalter, ist die Registrierung nicht möglich. Einfach ein falsches Alter anzugeben ist im Normalfall allerdings kein Problem, da keine weitere Überprüfung stattfindet.
Einige Plattformen bieten Tools an, mit denen Eltern das Nutzungsverhalten ihrer Kinder in einem gewissen Rahmen kontrollieren und überprüfen können. Ein Beispiel dafür ist die Elternaufsicht auf Instagram. Diese bietet Eltern unter anderem die Möglichkeit, ein Zeitlimit für die Instagram-Nutzung sowie Pausen zu bestimmten Uhrzeiten festzulegen oder zu sehen, wem das Kind auf Instagram folgt. Um diese Funktion nutzen zu können muss das Kind allerdings einwilligen und die Funktion kann jederzeit sowohl vom Elternteil als auch vom Kind entfernt werden. Einen ähnlichen Ansatz verfolgt TikTok mit dem Begleiteten Modus .
Bestimmte Inhalte können außerdem auf einigen Plattformen mit einer Altersbeschränkung versehen werden. Dies soll etwa auf YouTube mit Videos, die bestimmte gefährliche Aktivitäten, sexuelle Inhalte oder Gewaltdarstellungen zeigen, geschehen, so dass diese nur Zuschauer*innen über 18 Jahren angezeigt werden. Inhalte, die gegen die Nutzungsbedingungen oder die Community Guidelines eines sozialen Netzwerks verstoßen, können gemeldet werden. Allerdings werden gemeldete Inhalte oft nicht oder nicht zeitnah entfernt, auch wenn sie den Richtlinien der Plattformen nicht entsprechen (Farthing et al., 2023).
Radikalisierung auf Social Media
Nicht nur Eltern und Pädagogen kritisieren immer wieder die sozialen Netzwerke und die Gefahren, die sie für Kinder und Jugendliche bergen. Teilweise kam es bereits zu Gerichtsprozessen, da die Plattformen möglicherweise gegen Gesetze verstoßen haben. Das aktuellste Beispiel dafür ist ein Ermittlungsverfahren gegen TikTok, das im Februar 2024 von der Europäischen Union eingeleitet wurde. Dabei soll untersucht werden, ob TikTok ausreichend Maßnahmen zum Schutz der minderjährigen Nutzer*innen ergreift (ZDFheute, 2024a).
Ein Artikel von ZDFheute berichtet, wie Rechtsextreme TikTok nutzen, um gezielt Jugendliche zu ködern: Sie nutzen etwa beliebte Challenges und Hashtags, um möglichst vielen Nutzer*innen vorgeschlagen zu werden. Dass es sich um Rechtsextreme handelt, ist dabei zunächst nicht offensichtlich, lässt sich aber anhand anderer verwendeter Hashtags meist erkennen. Wenn die Nutzer*innen häufiger Videos dieser Profile anschauen, liken und kommentieren, bekommen sie mehr vorgeschlagen, in denen dann auch die extremeren Ansichten deutlicher werden (ZDFheute, 2024b).
Doch nicht nur Rechtsextreme machen sich die Algorithmen zunutze und natürlich ist TikTok nicht die einzige Plattform, auf der dieses Phänomen stattfindet. Ein anderes Beispiel für diese Art der Radikalisierung ist die sogenannte „Manosphere“, in die insbesondere männliche Jugendliche leicht geraten können. Der Begriff beschreibt verschiedene Strömungen, die sich alle durch extreme Frauenfeindlichkeit auszeichnen. Die Organisation Reset Australia führte 2022 ein Experiment durch, bei dem sie mehrere Accounts von Jungen und jungen Männern bei YouTube erstellte und diese insbesondere das Kurzvideoformat YouTube Shorts anschauen ließ. Allen Accounts wurde innerhalb weniger Stunden solcher Content vorgeschlagen, insbesondere Videos mit Reden oder Interviews des Kanadiers Jordan Peterson, der zu den bekanntesten Persönlichkeiten der Szene gehört.
Schon lange nutzen extremistische Gruppen nicht mehr nur persönliche Kontakte, sondern häufig das Internet und dort in besonderem Maß die sozialen Medien, um mögliche neue Mitglieder zu erreichen und diese zu radikalisieren. Über diese können nicht nur die Mitglieder kommunizieren, sondern es lassen sich auch verhältnismäßig einfach Informationen und Meinungen mit Personen teilen, die bisher noch keinen Kontakt mit der Gruppe oder der Ideologie allgemein hatten. Dass diese Informationen nicht unbedingt der Wahrheit entsprechen, spielt dabei eine untergeordnete Rolle. Durch scheinbare Belege, etwa gefälschte Berichte oder Bilder aus einem anderen Kontext, können sie auf den ersten Blick glaubwürdig erscheinen, was häufig bereits genügt, um zumindest einige Personen von ihrem Wahrheitsgehalt zu überzeugen und diese etwas weiter in Richtung der extremistischen Ideologie zu treiben (Nitsch, 2018).
Dabei werden einerseits die großen sozialen Netzwerke wie Instagram, TikTok, Facebook oder Twitter genutzt, über die auch Außenstehende erreicht und möglicherweise abgeholt werden und über die versucht werden kann, die öffentliche Meinung zu ändern. Um die Mehrheit zu erreichen und zu verhindern, dass die Inhalte von den Seitenbetreibern gelöscht werden, bleiben die Aussagen dort oft verhältnismäßig gemäßigt. Andererseits gibt es kleinere Netzwerke und Foren, die sich ganz dem Extremismus verschrieben haben und in denen die eigenen Ansichten gänzlich ungefiltert geteilt werden können (Fielitz/Marcks, 2020).
Auch in bestimmten Subkulturen, etwa Teilen der Online-Gaming-Gemeinschaft, in der häufig bereits Frauenfeindlichkeit, Homophobie und Rassismus in mehr oder weniger starker Ausprägung vorhanden sind, sind diese extremen Gruppierungen aktiv (Fielitz/Marcks, 2020).
Ist eine Person erst einmal so weit, dass sie zumindest gelegentlich extremistische Inhalte auf Social Media konsumiert, kann sich langsam aber sicher eine Echokammer bilden: Es werden immer mehr Inhalte der Art angezeigt, wie man sie bereits konsumiert, also konsumiert man noch mehr Inhalte dieser Art und so weiter. Die Personen kommen entsprechend immer mehr mit der Ideologie in Kontakt, was die eigene Meinung dazu verstärkt und so zur Radikalisierung führen kann (Hollewell/Longpré, 2022).
Fazit
Leider besteht bei der Nutzung von Social Media immer die Gefahr, in einer radikalen Echokammer zu landen. Doch deshalb sollten Eltern ihren Kindern die Nutzung nicht grundsätzlich verbieten. Während dies bei jüngeren Kindern, die kein eigenes Smartphone oder Tablet und keinen eigenen Computer besitzen, noch leicht möglich und bis zu einem gewissen Alter auch sinnvoll ist, lässt es sich im Teenager-Alter ohnehin nicht mehr verhindern: Wenn Jugendliche sich bei einem sozialen Netzwerk anmelden wollen, werden sie einen Weg finden.
Eltern sollten deshalb mit ihren Kindern über die Nutzung von Social Media und die potentiellen Gefahren sprechen. Zudem ist es wichtig, sich mit den Funktionen auseinanderzusetzen, die die einzelnen Plattformen bieten. Häufig lassen sich zum Beispiel auch bestimmte Inhalte einschränken, indem man etwa einzelne Hashtags blockiert. Wichtig ist dennoch, dass man die angezeigten Inhalte kritisch betrachtet und weiterhin hinterfragt, denn einen hundertprozentigen Schutz kann es nie geben.
Quellen und weiterführende Informationen
Farthing, R.; Anderson, A.; Dawkins, A.; Tantular, R. (2023): Is content over- or under-moderated in the Voice referendum debate? An experimental evaluation. https://au.reset.tech/news/report-is-political-content-over-or-under-moderated/ (20.02.2024)
Fielitz, M.; Marcks, H. (2020): Digitaler Faschismus. Die sozialen Medien als Motor des Rechtsextremismus. Berlin: Dudenverlag.
Hollewell, G. F.; Longpré, N. (2022): Radicalization in the Social Media Era: Understanding the Relationship between Self-Radicalization and the Internet. Interna-tional journal of offender therapy and comparative criminology, 66/ 8, 896–913. https://doi.org/10.1177/0306624X211028771
Medienpädagogischer Forschungsverbund Südwest (2023): KIM-Studie 2022. https://www.mpfs.de/fileadmin/files/Studien/KIM/2022/KIM-Studie2022_website_final.pdf (20.02.2024)
Nitsch, H. (2018): Soziale Medien und (De-)Radikalisierung. In: Rüdiger, Thomas-Gabriel; Bayerl, Petra Saskia (Hrsg.): Digitale Polizeiarbeit. Wiesbaden: Springer VS, 65–90. https://doi.org/10.1007/978-3-658-19756-8_4
Reset Australia (2022): Algorithms as a weapon against women: How YouTube lures boys and young men into the ‘Manosphere’. https://au.reset.tech/news/algorithms-as-a-weapon-against-women-how-youtube-lures-boys-and-young-men-into-the-manosphere/ (20.02.2024)
YouTube-Hilfe (o. D.): Inhalte mit Altersbeschränkung. https://support.google.com/youtube/answer/2802167 (20.02.2024)
ZDFheute (2024a): Mangelnder Jugendschutz: EU eröffnet Ermittlungsverfahren gegen TikTok. https://www.zdf.de/nachrichten/digitales/tiktok-eu-jugendschutz-100.html. (20.02.2024)
ZDFheute (2024b): Safer Internet Day: TikTok: So ködern Rechtsextreme Jugendliche. https://www.zdf.de/nachrichten/politik/deutschland/tiktok-radikalisierung-kinder-jugendliche-rechtsextremismus-100.html. (20.02.2024)