Studie von Unicef und u.a. Interpol, Petition gegen Elon Musks Auszieh-Künstliche Intelligenz Grok schlagen Alarm.
„Zunehmend alarmiert über Berichte von einem rasanten Anstieg der Menge an KI-generierten sexualisierten Bildern… darunter auch Fälle, in denen Fotos von Kindern manipuliert und sexualisiert wurden“, zeigt sich das Kinderhilfswerk der Vereinten Nationen, Unicef in einer Medien-Aussendung wenige Tage vor dem Safer Internet Day (immer am zweiten Dienstag im Februar).
Deepfakes – Bilder, Videos oder Audiodateien, die mithilfe Künstlicher Intelligenz (KI) erzeugt oder manipuliert werden und real erscheinen sollen – werden zunehmend zur Herstellung sexualisierter Inhalte mit Kindern genutzt, unter anderem durch sogenannte ‚Nudification‘, bei der KI-Werkzeuge Kleidung auf Fotos entfernen oder verändern, um fingierte Nackt- oder sexualisierte Bilder zu erzeugen.
In einer Studie in elf Ländern (Armenien, Brasilien, Dominikanische Republik, Kolumbien, Mexiko, Montenegro, Marokko, North Mazedonien, Pakistan, Serbien, Tunesien) gaben im vergangenen Jahr mindestens 1,2 Millionen Kinder (12 bis 17 Jahre) an, dass ihre Bilder zu sexuell expliziten Deepfakes manipuliert worden seien. In manchen Ländern entspricht dies einem von 25 Kindern, also etwa einem Kind in einer durchschnittlichen Schulklasse. Erstellte wurde die Erhebung von Unicef, Ecpat (End Child Prostitution, Child Pornography & Trafficking of Children for Sexual Purposes;internationales Netzwerk zivilgesellschaftlicher Organisationen für die Beendigung sexueller Ausbeutung von Kindern) und Interpol (Teil von „Disrupting Harm Phase 2“, Link am Ende des Beitrages).
Auch Kinder selbst sind sich dieses Risikos sehr bewusst. In einigen der untersuchten Länder sagten bis zu zwei Drittel der Kinder, sie hätten Angst davor, dass KI zur Erstellung gefälschter sexueller Bilder oder Videos verwendet werden könnte. Das Ausmaß der Sorge variiert stark zwischen den Ländern und unterstreicht den dringenden Bedarf an verstärkter Aufklärung, Prävention und Schutzmaßnahmen.
Sexualisierte Bilder von Kindern, die mithilfe von KI-Werkzeugen erzeugt oder manipuliert werden, sind Darstellungen sexuellen Missbrauchs von Kindern (Child Sexual Abuse Material, CSAM). Deepfake-Missbrauch ist Missbrauch – und an dem Schaden, den er verursacht, ist nichts ‚fake‘.
Wenn das Bild oder die Identität eines Kindes verwendet wird, wird dieses Kind direkt zum Opfer. Selbst ohne identifizierbares Opfer normalisiert KI-generiertes Material sexuellen Missbrauchs von Kindern die sexuelle Ausbeutung, befeuert die Nachfrage nach missbräuchlichen Inhalten und stellt Strafverfolgungsbehörden vor erhebliche Herausforderungen bei der Identifizierung und dem Schutz von Kindern, die Hilfe benötigen.
Unicef begrüßt daher Bemühungen jener KI-Entwickler, die Security-by-Design-Ansätze und robuste Schutzmechanismen einbauen, um den Missbrauch ihrer Systeme zu verhindern. Zu viele KI-Modelle werden jedoch ohne ausreichende Schutzvorkehrungen entwickelt. Die Risiken können sich weiter verschärfen, wenn generative KI-Werkzeuge direkt in soziale Medien integriert werden, wo sich manipulierte Bilder rasend schnell verbreiten.
Unicef hat schon vor einigen Wochen eine Petiton „Online sicher – für jedes Kind“ für einen besseren Kinderschutz im digitalen Raum initiiert – Link ebenfalls am Ende des Beitrages.
Außerdem läuft seit einiger Zeit eine Petition der Plattform #aufstehn.at speziell gegen Elon Musk KI Grok. „Wer für seine Plattform X (früher: Twitter) zahlt, kann Kinder und Frauen auf hochgeladenen Bildern entkleiden und damit sexualisieren. Das verstößt gegen Gesetze“, merkt aufstehn an. „Die EU zieht aber bislang keine klaren Konsequenzen – weil man US-Präsident Donald Trump nicht verärgern möchte. Doch Österreich kann handeln“, verlangt die Initiative und weist darauf hin, dass „Malaysia Grok bereits gesperrt hat. In Frankreich ermittelt die Staatsanwaltschaft gegen die KI.“
Die EU‑Kommission sammle zwar Beweise für den Bildmissbrauch durch Grok. „Das Problem: Personen, die mit Grok Kinder und Frauen entkleiden und entstellen, holen keine Einwilligung für verwendete Bilder ein. Betroffene können also nicht wissen, ob die Missbrauchs‑KI auch eigene Fotos verfälscht hat. Darum fordern wir mit unserem Appell Missbrauch stoppen, Grok sperren!, dass auch Österreich tätig wird und die Missbrauchs-KI abdreht.“
Mehr als 25.000 Menschen haben den Appell bereits unterzeichnet, „aber damit der für KI zuständige Staatssekretär Alexander Pröll rasch handelt“, bräuchte es noch rund 5000 Unterschriften. „Bei 30.000 Unterschriften tragen wir unsere Botschaft vor Prölls Büro“, so #aufstehn.at
Eine weitere Initiative, „Die schweigende Mehrheit“ startete eine ähnlich genannte Petition wie Unicef „Kinderrechte im digitalen Raum schützen“, aber mit weiterreichenden Forderungen, u.a. EU-weites Verbot von Tiktok – ebenfalls unten verlinkt.
Sie sehen gerade einen Platzhalterinhalt von Facebook. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von Instagram. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr InformationenSie sehen gerade einen Platzhalterinhalt von X. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Mehr Informationen