Dal monitoraggio emerge il furto di video da profili pubblici TikTok per generare nudi con Grok. Per il social network la maggior parte dei contenuti segnalati da Meter “non viola le norme”.
Immagini di minori prelevate da account pubblici di TikTok e rielaborate su X (ex Twitter) tramite intelligenza artificiale per generare materiale pedopornografico deepfake. È quanto emerge dall’ultimo monitoraggio tecnico di Associazione Meter, che segnala il coinvolgimento di 1 minore su 5 nel campione analizzato.
Il modus operandi individuato prevede il download dei contenuti dalla piattaforma di video sharing TikTok e il successivo caricamento su X. Qui, gli utenti utilizzano strumenti di IA generativa – con richieste dirette anche al sistema Grok – per elaborare le immagini (nudify) e creare falsi nudi partendo da foto reali.
Nonostante l’azione di Meter in qualità di Trusted Flagger, si registra una sostanziale mancata collaborazione da parte della piattaforma X. Dalle evidenze raccolte, soltanto il 10% del materiale segnalato è stato rimosso. Per la restante parte, il social network ha respinto le richieste di rimozione sostenendo che i contenuti generati “non violano le normative” della community.



