Immagini di abusi sui minori generati dall´AI sempre più diffuse
Internet Watch Foundation denuncia che le immagini di abusi sessuali su minori generati dall’intelligenza artificiale sono sempre più presenti nelle aree di Internet accessibili al pubblico. L’AI si addestra su contenuti di abusi reali

Foto di Pexels da Pixabay
L’intelligenza artificiale sta creando nuovi orrori con la diffusione di immagini di abusi sessuali su minori, che non circolano sul dark web: stavolta il contenitore delle scioccanti immagini di cui scriviamo è il clear web, la Rete di tutti i giorni, quella su cui consultiamo email, notizie e qualsiasi cosa “normale” ci interessi. Non più confinati nel dark web, dunque, questi contenuti sono facilmente accessibili al pubblico e sono così realistici che spesso gli esperti faticano a capire se raffigurano bambini reali. La maggior parte di questi contenuti è ospitata su server in Russia e negli Stati Uniti.
L’allarme arriva dall'IWF (Internet Watch Foundation), una rete europea che opera nel Regno Unito per la ricerca e la rimozione di immagini di abusi sessuali su minori da Internet, che ha denunciato questa drammatica realtà. Solo negli ultimi sei mesi, gli analisti dell’IWF hanno riscontrato un aumento del 6% delle segnalazioni confermate contenenti materiale pedopornografico generato dall’intelligenza artificiale, rispetto ai 12 mesi precedenti. Quasi tutti i contenuti (il 99%) sono stati trovati in aree accessibili al pubblico, come forum o gallerie di AI, e non nel dark web. E il 78% delle segnalazioni viene dal pubblico, solo il resto dalla ricerca proattiva degli analisti.
L’aspetto forse più inquietante è che alla base delle immagini generate dall’AI c sono foto reali di abusi. “Per creare il livello di sofisticatezza osservato nelle immagini dell’intelligenza artificiale, il software utilizzato ha dovuto essere addestrato anche su immagini e video di abusi sessuali esistenti di vere vittime minorenni, condivisi e distribuiti su Internet - spiega Derek Ray-Hill, amministratore delegato dell’IWF - La protezione dei bambini e la prevenzione delle immagini di abuso dell’IA devono essere considerate prioritarie dai legislatori e dall’industria tecnologica rispetto a qualsiasi pensiero di profitto. Gli ultimi mesi dimostrano che questo problema non sta scomparendo e anzi sta peggiorando. Abbiamo urgente bisogno di adeguare le leggi all’era digitale e di vedere misure tangibili che affrontino i potenziali rischi”.
PP
® Riproduzione riservata