Con la pubblicazione degli Epstein Files, il mondo è tornato ad interrogarsi sulla pedofilia e la pedopornografia. Numeri preoccupanti, dietro i quali si nascondono storie di minori privati della loro innocenza. I dati del fenomeno raccolti da Telefono Azzurro per la Giornata nazionale raccontano di un problema in crescita, su cui incombe anche il lato più oscuro dell’intelligenza artificiale.
Quadro composito e allarmante
L’elemento che viene fuori dal dossier 2025 presentato martedì 5 maggio a Roma è che l’abuso non è solo online. I dati dei servizi di Telefono Azzurro restituiscono infatti un quadro composito e allarmante. Per quanto riguarda il 114 Emergenza Infanzia, nel 52,4% dei casi la categoria primaria è abuso sessuale, mentre la sextortion pesa per il 25,8%. L’area “Abuso e Violenza” prevale con il 56% dei casi — il rischio fisico, in presenza, non è scomparso dietro gli schermi. C’è poi la linea 1.96.96: qui la dimensione digitale è dominante (66,7% dei casi nell’area Digitale), con la sextortion come categoria più frequente (47,2%). Ma il 25,9% dei casi riguarda ancora abuso sessuale offline. Infine, il Trusted Flagger: il 77% delle segnalazioni CSAM (Child Sexual Abuse Material, materiale di abuso sessuale su minori) riguarda siti web, confermando una dimensione infrastrutturale del problema, non solo relazionale.
L’intelligenza artificiale accelera il rischio
Il dato più allarmante riguarda l’intelligenza artificiale. Nel 2025, la Internet Watch Foundation ha valutato 8.029 immagini e video CSAM generati artificialmente, tra cui 3.443 video: un aumento del 26.385% rispetto ai soli 13 video rilevati l’anno precedente. Il 65% di questo materiale rientra nella categoria di gravità più alta. A rendere il quadro ancora più preoccupante, un’indagine Ofcom ha rilevato che il 61% di chi aveva già cercato o visualizzato CSAM non era in grado di distinguere i contenuti generati dall’IA da quelli reali: una condizione che rischia di alimentare la domanda rendendo invisibile l’offerta.
Telefono Azzurro chiede che le violenze attraverso l’IA siano giudicate penalmente rilevanti come quelle praticate su minori “ veri”, in carne ed ossa.
In Italia, nel 2025, il 76,5% delle segnalazioni gestite dal servizio Trusted Flagger di Telefono Azzurro riguarda materiale CSAM. Le segnalazioni coinvolgono soprattutto siti web (77%), con una componente social (12,2%) e file sharing (10%). Quando le informazioni sull’età delle vittime sono disponibili, prevalgono le fasce 10-13 anni (35,7%) e 7-10 anni (32,5%): bambini che difficilmente possono attivare da soli una richiesta di aiuto o una segnalazione.












