Künstliche Intelligenz: Wie von KI-Tools verfälschte Inhalte zur Gefahr für Kinder werden

Tools, die mithilfe von Künstlicher Intelligenz (KI) Inhalte generieren, haben innerhalb kurzer Zeit ein rasantes Wachstum erlebt und erfreuen sich immer größerer Beliebtheit. Diese Hilfsmittel schreiben auf Knopfdruck Texte oder erstellen in kürzester Zeit komplexe Bilder. Doch wie so oft, wird auch diese Neuerung nicht nur zum Guten genutzt. Dieser Beitrag beschreibt, wie künstlich generierte Inhalte zur Gefahr für Kinder werden und was Sie dagegen tun können.
Cyber-Mobbing mithilfe von KI
Minderjährige, die digitale Inhalte von anderen Minderjährigen verfälschen, um sie bloßzustellen – das ist nichts Neues. Mit den neuen KI-Tools ist das Fälschen von Inhalten in noch umfangreicheren Maßen jedoch deutlich einfacher geworden. Der Zugang zu diesen Tools ist auch für Kinder und Jugendliche problemlos möglich. Sie sind leicht bedienbar und oftmals kostenfrei. Mit wenigen Befehlen kann eine Person in einer peinlichen Situation dargestellt werden, in der sie sich nie befand. Den anderen auf bloßstellende Art und Weise darzustellen, das geht mit KI auf unterschiedlichste Art und Weise. Durch Deepfake-Technologie macht die KI auch vor erfundenen Videos keinen Halt. KI-Bots können automatisch belästigende oder bedrohliche Nachrichten verschicken. Selbst Stimmen können mithilfe von Voice-Generators nachgeahmt werden, wenn zum Beispiel eine Sprachnachricht der betreffenden Person als Vorlage eingespeist wurde. Die KI verwandelt jeden erdenklichen Text in gesprochenes Wort. Das Potential zur Täuschung anderer, mithilfe solcher künstlichen Sprachmemos, ist immens.
Werden solche Inhalte über soziale Medien in Umlauf gebracht, kann das verheerende Auswirkungen auf die Opfer haben. Die generierten Inhalte wirken täuschend echt und sind auf den ersten Blick kaum als Fakes zu erkennen. Sie stellen erhebliche Persönlichkeitsrechtsverletzungen für die Betroffenen dar. Neben der Bloßstellung müssen die Mobbing-Opfer andere noch davon überzeugen, dass das Material falsch ist. Betroffene können kaum etwas gegen die Verbreitung tun. Sie fühlen sich ohnmächtig, denn solche Inhalte lassen sich leicht in großer Menge und immer wieder neu herstellen. Was einmal im Internet kursiert, lässt sich kaum wieder entfernen.
KI zur Herstellung von Kinder- und Jugendpornografie
Wie schamlos die neuen Technologien missbraucht werden können, zeigt ein Fall in Spanien aus dem Jahr 2023. An einer Schule haben Minderjährige mutmaßlich KI-generierte Nacktfotos von mehr als 20 Mädchen in Umlauf gebracht. Grundlage dieser Fälschungen waren Instagram-Fotos der Mädchen, auf denen sie voll bekleidet waren.
Solch eine Tat ist jedoch kein Einzelfall. Auf Instagram gibt es Accounts, die künstlich generierte pornografische Bilder von Kindern und Jugendlichen verbreiten. Einige dieser Accounts verlinken auf externe Seiten, auf denen auch expliziter KI-generierter Kindesmissbrauch gezeigt wird. Als Grundlage für KI-generierte Pornografie können alltägliche, echte Fotos genutzt werden. Die künstlichen Bilder sind von echten kaum zu unterscheiden und erschweren die Ermittlungsarbeiten.
Was Eltern tun können
Eltern sollten mit ihren Kindern über die Möglichkeiten und Gefahren der Anwendung von Künstlicher Intelligenz sprechen. Sie können ihre Kinder darauf aufmerksam machen, dass KI auch zur Täuschung eingesetzt werden kann. Sowie ihre Kinder darüber aufklären, dass das Erstellen und Verbreiten solcher Inhalte nicht harmlos ist, sondern große Schäden anrichten kann. Eltern können den Heranwachsenden auch zeigen, woran sie künstlich erzeugte Bilder erkennen können: an kleinen Fehlern, wie zu vielen Gliedmaßen, verformten Gegenständen oder Ähnlichem.
Wenn die eigenen Kinder von Fälschungen betroffen sind, sollten die Inhalte sofort bei den Plattformbetreibern gemeldet werden, damit diese die Inhalte entfernen. Wenn die Eltern die Person hinter der Verbreitung kennen, können sie diese Person auffordern, das Material zu löschen. In schwereren Fällen können sie bei der Polizei Anzeige erstatten.
Quellen und weiterführende Informationen
lkonline (2024): Vorsicht! Künstliche Intelligenz kann zu Mobbing führen. https://sbg.lko.at/vorsicht-k%C3%BCnstliche-intelligenz-kann-zu-mobbing-f%C3%BChren+2400+3970468?env=bW9kZT1uZXh0JnBhZ2luZz15ZXNfXzAmY3Q9NCZiYWNrPTE . (04.04.2024)
SCHAU HIN! (2023): KI-Tools: Vorsicht vor Cybermobbing. https://www.schau-hin.info/news/ki-tools-vorsicht-vor-cybermobbing . (04.04.2024)
SPIEGEL Panorama (2023): Offenbar von KI generierte Nacktbilder zirkulieren an Schulen. https://www.spiegel.de/panorama/justiz/spanien-mutmasslicher-deepfake-ki-nacktbilder-von-maedchen-sollen-an-schulen-zirkulieren-a-7ae53f64-ed28-4e45-9a72-d44dc1a3c17e . (04.04.2024)
Süddeutsche Zeitung (2024): Mobbing-Gefahr: KI-Bilder können Kinder bloßstellen. https://www.sueddeutsche.de/leben/familie-mobbing-gefahr-ki-bilder-koennen-kinder-blossstellen-dpa.urn-newsml-dpa-com-20090101-240201-99-833986 . (04.04.2024)
SWR (2024): „Vollbild“: Hohe Gefahr durch künstlich generierte Kinder- und Jugendpornografie. https://www.swr.de/unternehmen/kommunikation/pressemeldungen/vollbild-recherche-zu-kuenstlich-generierter-kinder-und-jugendpornografie-2024-100.html . (04.04.2024)