‘Minority Report’ di Spielberg e il diritto penale

Siamo nel 2054, le auto volano, il traffico è perlopiù aereo e la polizia si serve di tre soggetti dotati del potere della preveggenza per arrestare in anticipo futuri assassini. Fantascienza, si dirà. D’altra parte si sta parlando del film di Spielberg ‘Minority Report’. Non proprio. Sulla capacità di previsione, l’AI (Intelligenza Artificiale) ci costringe a spostare più in là i confini della realtà. Ma come si applicherebbe il diritto penale in un caso del genere? Riuscirebbe a perseguire il proprio scopo, cioè di punire per rieducare? Queste, come altre domande, saranno al centro di Intelligenza artificiale e diritto penale: il caso di Minority Report, lezione demo del 3 marzo a cura del ricercatore e docente di Diritto penale delle nuove tecnologie Gaspare Sicignano. “Quello dell’AI è un tema di assoluta attualità nel dibattito giuridico – spiega – in particolare uno dei settori dove questa tecnologia è maggiormente diffusa è quello della prevenzione dei reati. Carabinieri e polizia utilizzano già strumenti di questo tipo”. Un avanzamento che tuttavia pone questioni assai rilevanti, come accade proprio nel film citato nel titolo della lezione. Nella pellicola, il protagonista – anche capo della squadra omicidi – si rende conto di essere lui il prossimo a commettere il reato, pur non avendone l’intenzione. “È la previsione, rivela il film, a far accadere il fatto”. A testimonianza di quanto il problema sia reale, il docente cita il caso di un cittadino americano “ritenuto dalle autorità possibile autore di rapine in futuro. La polizia inizia ad indagare ma, nel mentre, l’uomo viene aggredito da altri cittadini perché ritenuto pericoloso. Insomma, questi sono strumenti interessanti, ma bisogna andarci cauti”. Il vero nodo potrebbe essere proprio la messa in discussione dello scopo del diritto penale. Se si interviene prima del reato, cosa c’è da rieducare? Quindi è evidente che la tecnologia deve essere strumento del diritto, non il contrario. Tutta la comunità giuridica sta studiando le potenzialità di questi nuovi mezzi, ma al tempo stesso prova a delimitarne i confini affinché non vengano meno i diritti di libertà di tutti”. Sempre sull’AI, sono altri due i casi emblematici: i sistemi di riconoscimento dell’iride già usati in Cina“la privacy è a forte rischio”, afferma Sicignano – e quello del sistema Google chiamato LaMDA. Una vera e propria intelligenza artificiale che, venuta a conoscenza del licenziamento da parte dell’azienda dell’ingegnere che l’aveva creata, decise di chiamare un avvocato per evitare il rischio di essere spenta. “Questi sistemi usano il machine learning, cioè riescono a progredire in maniera autonoma. La questione, ammesso che queste macchine sappiano relazionarsi e siano autonome, è se sia il caso di riconoscervi diritti e prerogative”.

- Advertisement -

LEAVE A REPLY

Please enter your comment!
Please enter your name here





Articoli Correlati