Kinder Jugend Kultur und mehr - Logo
Kinder Jugend Kultur Und mehr...
Symbolfoto: Ein Mädchen in Äthiopien mit ihrem Smartphone
Symbolfoto: Ein Mädchen in Äthiopien mit ihrem Smartphone
06.02.2026

Neue Missbrauchsform: Fotos von Millionen von Kindern per KI sexualisiert

Studie von Unicef und u.a. Interpol, Petition gegen Elon Musks Auszieh-Künstliche Intelligenz Grok schlagen Alarm.

„Zunehmend alarmiert über Berichte von einem rasanten Anstieg der Menge an KI-generierten sexualisierten Bildern… darunter auch Fälle, in denen Fotos von Kindern manipuliert und sexualisiert wurden“, zeigt sich das Kinderhilfswerk der Vereinten Nationen, Unicef in einer Medien-Aussendung wenige Tage vor dem Safer Internet Day (immer am zweiten Dienstag im Februar).

Deepfakes – Bilder, Videos oder Audiodateien, die mithilfe Künstlicher Intelligenz (KI) erzeugt oder manipuliert werden und real erscheinen sollen – werden zunehmend zur Herstellung sexualisierter Inhalte mit Kindern genutzt, unter anderem durch sogenannte ‚Nudification‘, bei der KI-Werkzeuge Kleidung auf Fotos entfernen oder verändern, um fingierte Nackt- oder sexualisierte Bilder zu erzeugen.

Per KI generiertes Foto zum Prompt
Per KI generiertes Foto zum Prompt „Stopp digitalen sexualisierten Missbrauch durch KI-generierte Fotos“

Studie weist auf ungeheure Ausmaße hin

In einer Studie in elf Ländern (Armenien, Brasilien, Dominikanische Republik, Kolumbien, Mexiko, Montenegro, Marokko, North Mazedonien, Pakistan, Serbien, Tunesien) gaben im vergangenen Jahr mindestens 1,2 Millionen Kinder (12 bis 17 Jahre) an, dass ihre Bilder zu sexuell expliziten Deepfakes manipuliert worden seien. In manchen Ländern entspricht dies einem von 25 Kindern, also etwa einem Kind in einer durchschnittlichen Schulklasse. Erstellte wurde die Erhebung von Unicef, Ecpat (End Child Prostitution, Child Pornography & Trafficking of Children for Sexual Purposes;internationales Netzwerk zivilgesellschaftlicher Organisationen für die Beendigung sexueller Ausbeutung von Kindern) und Interpol (Teil von „Disrupting Harm Phase 2“, Link am Ende des Beitrages).

Bis zu zwei Drittel der Kinder haben Angst davor

Auch Kinder selbst sind sich dieses Risikos sehr bewusst. In einigen der untersuchten Länder sagten bis zu zwei Drittel der Kinder, sie hätten Angst davor, dass KI zur Erstellung gefälschter sexueller Bilder oder Videos verwendet werden könnte. Das Ausmaß der Sorge variiert stark zwischen den Ländern und unterstreicht den dringenden Bedarf an verstärkter Aufklärung, Prävention und Schutzmaßnahmen.

Per KI generiertes Foto zum Prompt
Per KI generiertes Foto zum Prompt „Stopp Missbrauch von Kinderfotos durch KI“

Das ist Missbrauch

Sexualisierte Bilder von Kindern, die mithilfe von KI-Werkzeugen erzeugt oder manipuliert werden, sind Darstellungen sexuellen Missbrauchs von Kindern (Child Sexual Abuse Material, CSAM). Deepfake-Missbrauch ist Missbrauch – und an dem Schaden, den er verursacht, ist nichts ‚fake‘.

Wenn das Bild oder die Identität eines Kindes verwendet wird, wird dieses Kind direkt zum Opfer. Selbst ohne identifizierbares Opfer normalisiert KI-generiertes Material sexuellen Missbrauchs von Kindern die sexuelle Ausbeutung, befeuert die Nachfrage nach missbräuchlichen Inhalten und stellt Strafverfolgungsbehörden vor erhebliche Herausforderungen bei der Identifizierung und dem Schutz von Kindern, die Hilfe benötigen.

Sicherheit durch systemische Vermeidung

Unicef begrüßt daher Bemühungen jener KI-Entwickler, die Security-by-Design-Ansätze und robuste Schutzmechanismen einbauen, um den Missbrauch ihrer Systeme zu verhindern. Zu viele KI-Modelle werden jedoch ohne ausreichende Schutzvorkehrungen entwickelt. Die Risiken können sich weiter verschärfen, wenn generative KI-Werkzeuge direkt in soziale Medien integriert werden, wo sich manipulierte Bilder rasend schnell verbreiten.

Unicef-forderungen

  • Alle Regierungen müssen die Definitionen von Darstellungen sexuellen Missbrauchs von Kindern (CSAM) ausweiten, um KI-generierte Inhalte einzuschließen, und deren Herstellung, Beschaffung, Besitz und Verbreitung unter Strafe stellen.
  • KI-Entwickler müssen Security-by-Design-Ansätze und robuste Schutzmechanismen umsetzen, um den Missbrauch von KI-Modellen zu verhindern.
  • Digitale Unternehmen müssen die Verbreitung von KI-generiertem Material sexuellen Missbrauchs von Kindern verhindern – und nicht erst entfernen, nachdem der Missbrauch bereits stattgefunden hat. Ebenso müssen sie die Inhaltsmoderation durch Investitionen in Erkennungstechnologien stärken, damit solches Material unverzüglich entfernt werden kann und nicht erst Tage nach einer Meldung durch ein Opfer oder dessen Vertretung.
Titelbild zur #aufstehn-Petition Elon Musks KI Grok zu stoppen
Titelbild zur #aufstehn-Petition Elon Musks KI Grok zu stoppen

Petitionen

Unicef hat schon vor einigen Wochen eine Petiton „Online sicher – für jedes Kind“ für einen besseren Kinderschutz im digitalen Raum initiiert – Link ebenfalls am Ende des Beitrages.

Außerdem läuft seit einiger Zeit eine Petition der Plattform #aufstehn.at speziell gegen Elon Musk KI Grok. „Wer für seine Plattform X (früher: Twitter) zahlt, kann Kinder und Frauen auf hochgeladenen Bildern entkleiden und damit sexualisieren. Das verstößt gegen Gesetze“, merkt aufstehn an. „Die EU zieht aber bislang keine klaren Konsequenzen – weil man US-Präsident Donald Trump nicht verärgern möchte. Doch Österreich kann handeln“, verlangt die Initiative und weist darauf hin, dass „Malaysia Grok bereits gesperrt hat. In Frankreich ermittelt die Staatsanwaltschaft gegen die KI.“

Die EU‑Kommission sammle zwar Beweise für den Bildmissbrauch durch Grok. „Das Problem: Personen, die mit Grok Kinder und Frauen entkleiden und entstellen, holen keine Einwilligung für verwendete Bilder ein. Betroffene können also nicht wissen, ob die Missbrauchs‑KI auch eigene Fotos verfälscht hat. Darum fordern wir mit unserem Appell Missbrauch stoppen, Grok sperren!, dass auch Österreich tätig wird und die Missbrauchs-KI abdreht.“
Mehr als 25.000 Menschen haben den Appell bereits unterzeichnet, „aber damit der für KI zuständige Staatssekretär Alexander Pröll rasch handelt“, bräuchte es noch rund 5000 Unterschriften. „Bei 30.000 Unterschriften tragen wir unsere Botschaft vor Prölls Büro“, so #aufstehn.at

Eine weitere Initiative, „Die schweigende Mehrheit“ startete eine ähnlich genannte Petition wie Unicef „Kinderrechte im digitalen Raum schützen“, aber mit weiterreichenden Forderungen, u.a. EU-weites Verbot von Tiktok – ebenfalls unten verlinkt.

kijuku_heinz

unicef –> petition

aufstehn.at –> Stoppt Grok

petition –> kinderrechte-im-digitalen-raum-durchsetzen

safeonline.global

Einer der drei Hauptpreisträger: Kurt Engleder
21.03.2026

Seelenritter