UNICEF schlägt Alarm: Künstliche Intelligenz wird zunehmend genutzt, um sexualisierte Bilder von Kindern zu erzeugen oder zu manipulieren. Mithilfe sogenannter Deepfakes werden Fotos, Videos oder Audiodateien so verändert, dass sie echt wirken. Besonders problematisch sind KI-Tools, die Kleidung auf Bildern entfernen oder verändern und so gefälschte Nacktaufnahmen von Kindern erzeugen.
Eine gemeinsame Studie von UNICEF, ECPAT International 1) und INTERPOL in elf Ländern verdeutlicht das Ausmaß: Im vergangenen Jahr wurden Bilder von mindestens 1,2 Millionen Kindern für sexuell eindeutige Deepfakes missbraucht. In einzelnen Ländern ist laut Selbstauskunft bereits jedes 25. Kind betroffen – ein alarmierender Wert.
Viele Kinder sind sich der Gefahr bewusst. In einigen der untersuchten Länder äußerten bis zu zwei Drittel von ihnen die Sorge, selbst Opfer von KI-generierten sexualisierten Bildern oder Videos zu werden. Das zeigt den dringenden Bedarf an Schutz, Aufklärung und Prävention.
UNICEF stellt klar: KI-generierte sexualisierte Darstellungen von Kindern sind Missbrauchsdarstellungen (CSAM). Der Schaden ist real – unabhängig davon, ob die Inhalte „künstlich“ erzeugt wurden. Wird das Bild oder die Identität eines Kindes genutzt, wird dieses Kind zum Opfer. Auch anonymisierte Darstellungen fördern die Normalisierung sexueller Ausbeutung und erschweren die Strafverfolgung.
UNICEF begrüßt Sicherheitsmaßnahmen einzelner KI-Entwickler, warnt jedoch vor unzureichenden Schutzstandards. Besonders kritisch ist die schnelle Verbreitung manipulierter Inhalte über soziale Netzwerke. UNICEF fordert klare gesetzliche Regelungen, konsequente Strafverfolgung sowie technische Schutzmechanismen, die Missbrauch von vornherein verhindern.
Quelle: UNICEF Deutschland