ChatGPT è davvero uno strumento imparziale?

2023: l’anno di ChatGPT. L’intelligenza artificiale arriva nelle case degli italiani e la nostra vita cambia radicalmente. Sembra che il chatbot possa rispondere praticamente a tutto: scrive temi al nostro posto, crea video e immagini, fa ricerche, ci dà consigli sulle questioni di cuore… Sembra che pensi proprio come noi esseri umani, ma ‘meglio’: più preciso, più matematico, più affidabile. Avanza presto, allora, l’idea di introdurlo nel mondo giuridico, dove il rigore scientifico dell’IA viene accolto da qualcuno come la soluzione alle cosiddette ‘vittime della giustizia’ o a quei magistrati considerati un po’ troppo schierati, faziosi, politicizzati.
Ma anzitutto c’è da chiedersi: ChatGPT è davvero uno strumento imparziale? Ce lo spiega la dott.ssa Valentina Capasso, ricercatrice di Diritto Processuale Civile e titolare dell’insegnamento di Ordinamento Giudiziario presso il Dipartimento di Giurisprudenza: “Allo stato dell’arte, sicuramente non è imparziale. Soprattutto per il settore giuridico: le fonti da cui attinge non sono assolutamente affidabili, in quanto raccoglie tutto ciò che trova online e dunque non solo scritti di giuristi ma anche, banalmente, post di Facebook di utenti comuni; in più, verifiche fatte sia da me che da altri colleghi italiani e stranieri hanno mostrato come sia uno strumento avvezzo all’errore, anche dopo che gli è stato segnalato, e che, nelle risposte, cerca di compiacere l’interlocutore”.

In Italia l’IA non è ancora entrata in tribunale

Qualche Paese, però, ha comunque tentato di introdurre l’Intelligenza Artificiale nelle proprie corti: la Colombia, seguita da altri paesi dell’America Latina, ma anche sistemi più vicini a noi geograficamente. “In Inghilterra, ad esempio, c’è stato un caso di un giudice che ha chiesto a ChatGPT una sintesi dello stato attuale della giurisprudenza. Questo tipo di richiesta, a parer mio, è legittima: se il magistrato ha già conoscenza del settore, è in grado di riconoscere se la risposta di ChatGPT è un’allucinazione, derivante dal mettere assieme gruppi di parole trovate in rete, o no. In quel caso, ha poi ritenuto che questa sintesi fosse affidabile e l’ha utilizzata nella sentenza. Per quanto possa suscitare dubbi, comunque, anche da noi la ricerca autonoma del giudice è consentita”.
In Italia, invece, ufficialmente l’IA non è ancora entrata in tribunale ma, come rivela la dott.ssa Capasso, “a livello ufficioso sentiamo notizie poco rassicuranti su qualcuno che usa ChatGPT per riassumere gli atti di parte. Un uso del genere è estremamente rischioso, oltre che illegittimo, perché, se l’avvocato scrive determinate cose e il giudice poi le legge sintetizzate, non è detto che nel riassunto siano inseriti da ChatGPT tutti i punti realmente rilevanti. Nell’atto potrebbe esserci un dato specifico che il giudice non legge, perché l’Intelligenza Artificiale non lo ha incluso, e dunque potrebbe statuire che quel dato nell’atto non compare, quando invece c’è”.
Vagliando le ipotesi in cui il chatbot potrebbe essere impiegato, un utilizzo ancor meno legittimo sembrerebbe quello volto alla ricerca delle prove su internet, “non tanto per una questione di affidabilità della prova, ma perché si lede la parità delle parti e il diritto al contraddittorio, e spesso le regole processuali sull’onere della prova”.
E poi, pur essendo un mezzo che aspira ad essere matematicamente esatto, sarebbe impensabile usarlo anche per quelle valutazioni tecniche che possono essere richieste nell’arco di un processo, come perizie o consulenze: “In questi casi, la difficoltà è ancora maggiore, almeno nell’ordinamento italiano: i dati raccolti dal consulente tecnico devono essere resi noti alle parti e al giudice, perché deve essere possibile ripetere il ragionamento fatto per arrivare a quelle conclusioni. Tutto ciò ChatGPT non lo fa e dunque impedisce il controllo rispetto a quello che è un mero responso. Insomma, per i fatti tecnici la sua inadeguatezza è ancora maggiore”.

Il chatbot utile nel caso della diffamazione

Sebbene siano, a detta della dott.ssa Capasso, estremamente limitati, qualche situazione in cui ChatGPT potrebbe essere d’aiuto al giudice c’è. Un esempio? I casi di diffamazione. Per capire perché, però, dobbiamo entrare nel meccanismo base del chatbot: “è un modello di Large Language Model (LLM), cioè non pensa, bensì formula frasi sulla base della ricorrenza statistica delle parole online”. Dunque il magistrato potrebbe servirsene “in maniera non vincolante, ma persuasiva, per comprendere il significato che la collettività attribuisce ad una certa parola – nel caso della diffamazione, per valutare se l’espressione in esame è effettivamente giudicata offensiva nel linguaggio comune – perché il responso è un derivato di come la comunità online si esprime, senza filtri e senza incidenze del soggetto che pone la domanda”. Insomma, accertamenti di meri concetti sociali, rimessi alla coscienza collettiva: di giuridico, infatti, si può attestare ben poco.
Se invece lo prendiamo in considerazione come strumento esclusivamente ausiliario, e dunque senza attribuirgli autorità decisionale propria, potrebbe alleggerire il lavoro, per così dire, d’ufficio: “Ad esempio, potrebbe essere sfruttato nella stesura della motivazione, a patto che al magistrato sia consentito a monte di selezionare i dati. Insomma, un po’ come l’assistente di studio presente in alcune giurisdizioni superiori, dove il giudice lascia che la minuta sia scritta da altri, per poi supervisionarla. Questo sicuramente snellirebbe i tempi, ma l’attività dovrebbe sempre essere prima inquadrata dal magistrato”. Altra collocazione potrebbe essere in sostituzione degli ‘Uffici del processo’, istituiti con il PNRR e che resteranno in vita fintanto che ci saranno fondi per alimentarli. Dunque, una volta venuto meno il capitale umano, questo vuoto potrebbe essere effettivamente sopperito dall’Intelligenza Artificiale.
In ambito accademico, inoltre, qualcosa già si muove: “già oggi si vocifera, allo stato di progetto, di uno strumento per estrarre informazioni dalla banca dati della giurisprudenza di merito”. Infatti, dalla fine del 2023, tutte le sentenze della giurisprudenza di merito sono consultabili online da qualsiasi cittadino e, dunque, “un patrimonio così grande di pronunce, per la singola persona e senza strumenti di IA per affrontare la ricerca, è praticamente impossibile da vagliare”. In questo caso, però, parliamo di un modello di LLM “chiuso”, cioè dove le fonti da cui l’IA attinge e si allena sono ben definite e verificate all’origine.

‘Certezza matematica non equivale a maggior tutela’

In conclusione, uno strumento sì al fianco del giudice (con le dovute accortezze), ma mai al suo posto, e non tanto “per i limiti intrinsechi della macchina, ma per la necessità di una giustizia ‘non esatta’ come la macchina vorrebbe. Più giudici possono decidere una controversia in modo diverso: non abbiamo un parametro che ci faccia capire l’interpretazione corretta. La macchina, per quanto possa arrivare ad avvicinarsi al ragionamento umano, se i dati restano invariati, in qualsiasi momento darà sempre la stessa risposta: in un sistema come il nostro, che prevede l’impugnazione e una pluralità di giudici, sarebbe inconciliabile perché, se la risposta è sempre e solo una, non ha senso impugnarla. Ci sarebbe allora lo scardinamento del nostro intero sistema: si affiderebbe la controversia ad un unico grado di giudizio, dato che non avrebbe senso allora impugnare la decisione della macchina, e quindi si cadrebbe nell’eccesso opposto”.
E comunque, “la risposta sarà sempre sbagliata per definizione: non esistono due casi veramente uguali in tutto e per tutto, e dunque il risultato sarà avere risposte uguali per situazioni diverse”.
Esistono, tuttavia, sostenitori dell’affidare all’IA poteri decisionali. Rivela la dott.ssa Capasso che esiste un filone dottrinale chiamato “gastronomic jurisprudence”, che sostiene l’idea per cui i giudici decidano in modo diverso in base all’orario della giornata e quanta fame abbiano. Se queste sono le prospettive, è chiaro allora che “fa gola l’idea di avere una sola risposta netta, matematica, se si immagina che ne esista una sola e tutte le altre siano dovute alle idee politiche del giudice o ad altri elementi esterni che entrano nel processo. Ma il mito della legge che ha un unico significato non regge più, perché il sistema è troppo complesso. Insomma, certezza matematica non equivale a maggiore tutela”.
Alla luce di tutto ciò, ha ugualmente senso immaginare un cambiamento nei piani di studio delle università, più improntati verso gli strumenti di Intelligenza Artificiale? “È auspicabile che cambino anche se, con i tempi amministrativi dell’università, non è possibile immaginare in nessun Ateneo una riforma nel brevissimo termine: è difficile convogliare in un unico professore tutte le competenze necessarie per tenere un corso su questi argomenti. C’è grande impegno da parte dei filosofi del diritto nel promuovere questi studi e, confrontandoci con loro, è chiaro che il nostro obbligo come giuristi è capire il funzionamento di queste macchine da cui verremo dominati se non impariamo prima noi a dominarle e allora sì che sarà necessario cambiare formazione, perché altrimenti i giuristi del domani saranno totalmente impreparati alla pratica”.
Giulia Cioffi
Scarica gratis il nuovo numero di Ateneapoli

Ateneapoli – n. 1 – 2025 – Pagina 18

- Advertisement -




Articoli Correlati