Remote biometric identification systems. predictive policing, automated decision systems, risk assessment tools. Le possibili implementazioni dell’AI in seno al processo penale non mancano e, anzi, brillano per varietà ed estensione. La proposta normativa formulata dalla Commissione Europea ad aprile 2021 legittima – seppur subordinandolo al rispetto di stringenti requisiti – l’utilizzo dell’AI a fini di criminal law enforcement. Ciò che si auspica è l’implementazione dell’AI nel processo penale in modo efficiente, trasparente, sicuro e rispettoso dei diritti fondamentali degli indagati-imputati. Ciò che si teme, invece, è che le caratteristiche proprie dell’AI (opacità e incapacità etica, tra tutte) finiscano con l’introdurre surrettiziamente nel procedimento penale valutazioni ingiustificate, incontrollabili e potenzialmente discriminatorie.
Intelligenza artificiale: la tecnologia nel vuoto normativo
Si definisce intelligenza artificiale la tecnologia – figlia di una evoluzione immaginata negli anni ’50 e implementata, tra battute di arresto e vorticose accelerazioni, dagli anni ’70 ad oggi – in grado di analizzare il contesto ambientale e compiere azioni autonome volte al raggiungimento di specifici obiettivi.
Allo stato, difetta un corpus normativo dedicato alla disciplina dell’AI e delle sue pervasive intrusioni nel contesto economico-sociale. Di fatto, l’AI muove oggi i suoi passi in un totale vuoto normativo. Vuoto normativo che, tuttavia, è oggi pronto per essere colmato. Nell’aprile 2021, la Commissione Europea ha stilato una proposta di Regolamento volta a conferire disciplina unitaria al fenomeno AI all’interno dei confini dell’Unione. Si tratta del primo disegno di legge, su scala globale, specificatamente dedicato al fenomeno AI.
La proposta normativa della Commissione UE
Il corpus normativo immaginato dalla Commissione Europea è economicamente orientato. Fermo il riconoscimento del valore aggiunto iniettabile dall’AI nel tessuto economico-sociale, la normativa UE categorizza gli applicativi AI in base alla classe di rischio a cui afferiscono – tra cui, inaccettabile e alto – conferendo espressa e peculiare disciplina a ognuno di essi.
Se la disciplina giuridica del rischio inaccettabile si risolve nel divieto tout-court all’implementazione di applicativi AI, la disciplina dell’high risk postula la conformità ad una serie di requisiti normativi.
L’elencazione degli applicativi AI high risk è affidata all’Annex III della proposta normativa: tra questi, risultano compresi gli applicativi AI il cui impiego si colloca nel settore dell’amministrazione della giustizia e del criminal law enforcement.
Il dato è dunque chiaro: seppur nel rispetto di predeterminati requisiti normativi, l’utilizzo di applicativi AI a fini di giustizia è da ritenersi legittimo, e ciò in particolar modo nel settore penale dell’ordinamento giuridico.
Lo status-quo del procedimento penale
Necessaria una precisazione, per chi non fosse avvezzo alle aule di Giustizia. Il processo penale è affetto da una vera e propria patologia: la sua vetustà, ostinata e a tratti irragionevole. Una patologia il cui primo sintomo si manifesta nella perenne incapacità ad assorbire l’innovazione tecnologica.
Si prenda il seguente dato a valore di facciata: il processo penale è passato inerme attraverso la rivoluzione digitale che nell’ultimo decennio ha scosso il mondo. Omessa digitalizzazione dei fascicoli processuali, rigetto della tecnologia PEC e dei sistemi di video-conferenza: questo lo status-quo del procedimento penale a febbraio 2020. Soltanto la pandemia globale ha imposto la necessità di una prima e timida apertura al digitale, la quale è stata nondimeno accompagnata da resistenze di grandissimo momento, peraltro non sempre giustificate da cogenti esigenze di giustizia sostanziale e di tutela delle posizioni giuridiche dei singoli.
La riforma Cartabia appare pregevole in questo senso. Complici le risorse finanziarie garantite dal P.N.R.R., è stata finalmente avviata la transizione digitale del processo penale: transizione affidata a un piano triennale, supervisionata da un comitato tecnico-scientifico e adiuvata dall’assunzione di risorse umane qualificate.
L’auspicio – che a oggi non è certezza – è quello per cui il processo penale si riveli in grado di affrontare la transizione digitale, pure a fronte dello stato di assoluta deprivazione tecnologica in cui attualmente versa. E ciò, si crede, restituisce il grado di criticità delle sfide future: nel corso dei prossimi anni, ipotizzando il buon esito della transizione digitale, il processo penale sarà chiamato ad assimilare – in modo efficiente, improntato a giustizia e costituzionalmente orientato alla tutela dei diritti fondamentali – un fenomeno complesso come quello AI.
Applicativi AI e processo penale
In linea astratta e teorica, vaste sono le possibili implementazioni dell’AI in seno al processo penale:
- “Predictive policing”
È l’AI in ausilio della polizia amministrativa. Il suo utilizzo si colloca in un momento antecedente – ma prodromico – all’instaurazione del procedimento penale, nell’ambito del quale l’Autorità agisce in una prospettiva ante delictum ai fini della prevenzione generale di fatti illeciti penalmente rilevanti. Si pensi alla perimetrazione delle zone territoriali a maggior rischio criminale (hotspots), così come alla previsione di modalità e tempistiche di commissione di fatti di reato da parte di determinati soggetti (crime linking and profiling).
- “Remote biometric identification systems”
È l’AI in ausilio della polizia amministrativa e giudiziaria nell’attività di prevenzione e repressione di specifici fatti di reato. La tecnologia sottende la possibilità di individuare singoli individui in luoghi aperti al pubblico (e potenzialmente affollati) tramite scansione in tempo reale dei dati biometrici delle persone ivi presenti.
- “Automated decision systems”
È l’AI in ausilio dell’organo giudicante nella valutazione della colpevolezza dell’imputato. Sottende la valutazione AI del compendio probatorio del procedimento penale, finalizzata alla produzione di un output in merito, dapprima, all’opportunità di sottoporre a giudizio l’imputato e, in seguito, alla sua innocenza o colpevolezza.
- “Risk assessment tools”
È l’AI in ausilio dell’organo giudicante nella valutazione della pericolosità sociale dell’imputato. Trattasi di una valutazione – pur diversa da quella inerente al binomio innocenza/colpevolezza – ma in grado di incidere sotto molteplici profili sulla posizione giuridica dell’imputato.
Remote biometric identification systems nella proposta normativa della Commissione UE
I rischi derivanti dall’utilizzo dell’AI in pubblico ai fini della scansione dei dati biometrici sono stati considerati inaccettabili dalla Commissione Europea. Pertanto, ai sensi della proposta normativa formulata, l’utilizzo di tale tecnologia è da considerarsi illecito in suolo europeo.
Al divieto generalizzato viene prevista, tuttavia, una singola deroga: l’impiego della tecnologia a fini di criminal law enforcement. Ai sensi del disegno di legge, dunque, l’analisi biometrica in luoghi aperti al pubblico risulta lecita ove – a seguito di ponderazione tra i rischi insiti nell’utilizzo della tecnologia e rischi connessi al suo omesso utilizzo, nonché di adeguata limitazione spazio-temporale – essa venga asservita ad uno delle seguenti finalità, di carattere tassativo:
- la ricerca di una specifica persona offesa da reato, in particolar modo ove di minore età;
- la prevenzione di uno specifico, imminente e concreto pericolo alla vita o alla incolumità, in particolar modo ove derivante da attacco terroristico;
- la localizzazione e individuazione di una persona indiziata di un reato punito con la pena della reclusione superiore nel massimo ad anni tre.
Sul versante procedurale, poi, l’utilizzo della scansione biometrica risulta assistito da una serie di garanzie procedurali: l’utilizzo della tecnologia è da ritenersi legittimo sulla scorta dell’autorizzazione preventiva rilasciata da un organo giurisdizionale o da un’autorità amministrativa indipendente; soltanto in casi di comprovata urgenza l’utilizzo della tecnologia potrà essere avviato in assenza di autorizzazione giurisdizionale o amministrativa, la quale dovrà a ogni modo intervenire nel corso o al termine dell’utilizzo della tecnologia al fine di convalidare la legittima utilizzabilità dei suoi esiti.
Il disegno di legge formulato dalla Commissione Europea è stato oggetto, sul punto, di numerose critiche: alla netta dissenting opinion avanzata nel giugno u.s. dal Garante Europeo della protezione dei dati ha fatto seguito, nel mese di ottobre, una Risoluzione del Parlamento Europeo tarata sui medesimi presupposti, ossia, quelli per cui la rilevazione a mezzo AI di qualsiasi segnale biometrico (viso, voce, DNA, tratti comportamentali, impronte digitali, etc.) costituirebbe un’invasione della sfera di libertà e riservatezza dei singoli tale da porsi in contrasto con i principi cogenti dell’ordinamento democratico. Siffatto approccio – senz’altro apprezzabile nella sua attenzione ai diritti fondamentali degli individui, coinvolti o non coinvolti nel procedimento penale – postula tuttavia una conclusione reazionaria dal punto di vista tecnologico: il divieto generalizzato e privo di deroghe all’utilizzo in pubblico dell’AI biometrica; e ciò anche ove tale utilizzo fosse asservito al raggiungimento di qualificati fini di giustizia.
Predictive policing, automated decision systems e risk assessment tools nella proposta normativa della Commissione UE
Identificazione biometrica a parte, l’impiego della tecnologia AI in seno al processo penale è stata ritenuta dalla Commissione Europea un’attività connotata da rischio alto, ma pur sempre lecito.
Numerose, d’altronde, sono le implementazioni AI rese lecite in ottica di criminal law enforcement dalla proposta normativa; tra cui:
- “AI systems intended to be used by law enforcement authorities for making individual risk assessments of natural persons in order to assess the risk of a natural person for offending or reoffending or the risk for potential victims of criminal offences”.
Trattasi, in sostanza, della legittimazione all’utilizzo dei risk assessment tools, i quali, per quanto attiene specificatamente al settore penale dell’ordinamento italiano, potrebbero essere asserviti a plurime finalità (e.g. applicazione di misure cautelari, misure di sicurezza e misure di prevenzione; commisurazione della pena e concessione del beneficio della sospensione condizionale della pena).
- “AI systems intended to be used by law enforcement authorities for evaluation of the reliability of evidence in the course of investigation or prosecution of criminal offence”.
Trattasi della legittimazione all’utilizzo degli automated decision systems, i quali a loro volta potrebbero trovare spazi applicativi in seno al processo penale italiano in distinti e rilevanti snodi (e.g. richiesta di archiviazione in sede di indagini preliminari, sentenza di non luogo a procedere in sede di udienza preliminare e sentenza di condanna-assoluzione all’esito del processo).
- “AI systems intended to be used by law enforcement authorities for predicting the occurrence or reoccurrence of an actual or potential criminal offence based on profiling of natural persons or assessing personality traits and characteristics of past criminal behaviour of natural persons or groups”.
Trattasi, in questo caso, della legittimazione delle attività di predictive policing.
Poiché sistemi di intelligenza artificiale ad alto rischio, l’utilizzo di applicativi AI a fini di criminal law enforcement risulta presidiato da una serie di garanzie precauzionali ispirate ad un catalogo di prìncipi fondamentali: trasparenza, garanzia del controllo umano, non discriminazione, qualità e sicurezza.
Posta la disciplina giuridica, residua tuttavia un interrogativo di carattere tecnico, inerente alla effettiva possibilità di progettare e porre sul mercato sistemi AI conformi ai requisiti immaginati dalla Commissione Europea.
Conclusioni
Resta da stimare, in sostanza, il rischio che i sistemi AI, a fronte di una trasparenza di facciata, occultino il loro processo computazionale nell’opacità tipica dei black box algorithms di deep e machine learning, finendo – privi di etica (recte: algoretica) come sono – col produrre in modo ingiustificato output discriminatori, pure convalidati dagli umani in una logica di trust machine, di piena fiducia nell’operatività della macchina intelligente.
Tradurre una dinamica di questo all’interno di un procedimento come quello penale sarebbe al tempo stesso dannoso e distruttivo. Ed è questo che rende assolutamente necessario il confronto tra scienza giuridica e scienza cibernetica.