La pedopornografia è anche virtuale: ostunese il primo indagato in Puglia

di GIANMARCO DI NAPOLI

Una signora di Ostuni, rovistando in una scatola nello sgabuzzino di casa, in cui il marito poco più che cinquantenne teneva le sue cianfrusaglie, nota un paio di chiavette “Usb”, quelle che si utilizzano per memorizzare file dai computer. Incuriosita le inserisce nel pc e rimane scioccata: in una ci sono almeno 1.100 immagini e 200 gif animate (piccoli video) di natura pedopornografica. Nella seconda pen drive altre 200 immagini dello stesso tipo. I bambini ritratti appaiono nudi e coinvolti in scene di sesso esplicito. La donna è comprensibilmente sconvolta. Le possibilità che ha sono due: affrontare il marito o denunciarlo all’autorità giudiziaria. Sceglie la seconda e si reca alla polizia.
Gli agenti effettuano una perquisizione in casa e trovano un’altra chiavetta usb e un’hard disk: all’interno ci sono oltre 25mila immagini di natura pedopornografica di tipo fumetto e virtuale, ossia che non ritraggono bambini reali, ma rielaborazioni grafiche, anche in 3D, di minori che compaiono nudi e che compiono atti sessuali. Tutto il materiale viene posto sotto sequestro: è il 7 ottobre 2023.
Nei giorni scorsi la procura distrettuale di Lecce, competente per questa tipologia di gravissimi reati, ha chiuso le indagini contestando al 52enne ostunese non solo la detenzione di ingente materiale pornografico, ma anche la pornografia virtuale, per essersi procurato e aver detenuto “un’ingente quantità di materiale pornografico virtuale, immagini realizzate con tecniche di elaborazione grafica, raffiguranti situazioni che per qualità di rappresentazione appaiono reali, riproducenti minori degli anni 18 nell’atto di mostrare i propri organi genitali nudi o coinvolti in scene di sesso esplicito, oltre a materiale pornografico del tipo fumetto, immagini la cui qualità di rappresentazione risulta tale da far apparire come accadute o realizzabili nella realtà e quindi “vere”, o verosimili, situazioni non reali, ossia frutto di immaginazione di attività sessuali coinvolgenti bambini e bambine».
E’ probabilmente la prima volta che questa tipologia di reato viene contestata in Puglia a un indagato e rappresenta una coraggiosa visione in prospettiva nella lotta alla pedopornografia che diventa ancora più complessa con l’esplosione dell’utilizzo dell’intelligenza artificiale che ormai dà la possibilità di creare fotografie e video quasi identici a quelli reali.
L’articolo “600quater.1” del codice penale prevede la condanna per pedopornografia anche per chi detiene solo immagini virtuali e non reali, con la sola riduzione di un terzo della pena rispetto a quella massima di tre anni di reclusione previsti per chi possiede immagini vere.
Ma un conto sono le norme previste dal codice penale e un altro è quello di riuscire ad applicarle e di avere il coraggio di farlo: in questo caso ad esempio la il il pm di Lecce Luigi Mastroniani, specializzato nei reati contro le «fasce deboli», poteva limitarsi a portare a processo l’ostunese con il già cospicuo numero (1.300) di immagini reali ritraenti bambini che compivano atti sessuali. Invece ha voluto sottolineare che anche il possesso di immagini virtuali non può essere né ammesso né sottovalutato. E questa scelta apre nuovi scenari in funzione di ciò che potrà avvenire nei prossimi anni grazie alle ultime tecnologie.
Risale al 2017 una sentenza della Corte di Cassazione che ha respinto il ricorso presentato da un imputato condannato in primo e secondo grado perché trovato in possesso di immagini pedopornografiche ma non reali. L’uomo chiedeva l’assoluzione in quanto, non trattandosi di bambini reali, secondo i suoi difensori non esisteva “una lesione effettiva del bene tutelato”: in altre parole non essendo stati utilizzati minori in carne e ossa nelle scene di sesso, sarebbero mancati i presupposti del reato.
La sentenza della Cassazione invece respinge totalmente questa teoria e apre la strada alle battaglie che dovranno essere affrontate in un futuro che è già arrivato in un settore che, proprio grazie alle possibilità fornite dall’intelligenza artificiale, potrebbe divenire dominante se non fronteggiato duramente, con il codice penale alla mano. Secondo la Cassazione, le disposizioni adottate per contrastare la pornografia minorile non sono poste a tutela della sola libertà sessuale di un soggetto di minore età, qualificabile come persona offesa, ma anche delle bambine e bambini in generale che, pertanto, sono «da intendersi quale categoria di persone destinatarie della tutela rafforzata dell’intimità sessuale, incluso il rispetto delle diverse fasi del loro sviluppo fisico e psicologico, da intendere come comprensivo dello sviluppo della loro sessualità».
I giudici della Cassazione hanno in altre parole ritenuto che il legislatore abbia giustamente previsto nel codice penale una tutela rafforzata per l’intangibilità e lo sviluppo delle persone di minore età vietando anche tutte quelle rappresentazioni che, ritraendoli, diffondono l’idea della possibilità di coinvolgerli in atti sessuali con persone adulte.
Nel Rapporto esplicativo della Convenzione di Budapest sulla criminalità informatica13, adottata il 23 novembre 2001, è stato osservato che le immagini realistiche di bambine e bambini coinvolti in atti sessuali sono pericolose anche perché possono essere utilizzate per adescare più facilmente minorenni e coinvolgerli in attività sessuali. Preoccupazione questa che risulta più che mai fondata alla luce non solo di ciò che già oggi è possibile reperire in rete (fumetti pornografici e non solo) ma, soprattutto, alla luce di quello che potrà essere diffuso nel web dai sistemi di intelligenza artificiale generativa che stanno invadendo tutti i mercati pornografici, incluso quello della pedopornografia.
La scelta della procura di Lecce segna un cambiamento di rotta rispetto al recente passato in cui invece, anche nell’applicazione della legge, si riteneva che «avere effettiva lesività della condotta solo se le immagini virtuali siano state create utilizzando altre immagini concernenti situazioni reali».
Un cambio di passo fondamentale che dovrà essere presto completato con un inasprimento delle pene per chi potrebbe utilizzare l’intelligenza artificiale in un modo ancora più terribile, come già avviene ai danni di decine di donne il cui volto è stato inserito artificialmente su corpi nudi di altre ragazze: lo spettro del “deepfake” anche per i bambini è la prossima frontiera sulla quale bisognerà essere pronti a combattere. Con un codice penale adeguato, e pene durissime.