Questo sito utilizza cookie tecnici e di terze parti per migliorare la navigazione degli utenti e per raccogliere informazioni sull’uso del sito stesso. Per i dettagli o per disattivare i cookie consulta la nostra cookie policy. Chiudendo questo banner, scorrendo questa pagina o cliccando qualunque link del sito acconsenti all’uso dei cookie.

Potrà mai funzionare l’intelligenza artificiale applicata alla giustizia?

Se lo sono chiesti i senatori che hanno ascoltato il professore eticista presso la Pontificia Università Gregoriana Paolo Benanti presso la commissione giustizia di Palazzo Madama: “Il giudizio non è un calcolo matematico” ha detto l’accademico, dal momento che non si possono tradurre valori etici in valori numerici. Ma se dovesse accadere che un software venisse applicato al campo giuridico, ci ritroveremmo in una situazione in cui il giurista diverrebbe una sorta di tecnico con il solo scopo di “premere il tasto” per dare il “via libera” alla macchina che si occuperebbe del procedimento.
Una macchina che diverrebbe una sorta di ‘oracolo’ dal momento che gli ‘algoritmi’ che la governerebbero non saranno conosciuti dalla maggioranza dei cittadini ma solo da una cerchia ristretta di tecno - giuristi: “Quello che prima era un codice giuridico interpretato da una persona, ora è un codice informatico eseguito da una macchina, con un aggravante che non c'è trasparenza, perché quel programma che sta dietro la macchinetta nessuno l'ha mai visto”, ha detto l’accademico sottolineando il fatto che l’intelligenza artificiale, benché sia un prodotto tecnologico “non è mai del tutto neutrale”.
Un dato fondamentale dal momento che, come ha riportato Benanti, “l’intelligenza artificiale è in mano a nove compagnie che hanno una capitalizzazione di mercato superiore al trilione di dollari. Qualcuno vale anche 3 trilioni di dollari. Il PIL della Gran Bretagna è 3.3. Quindi abbiamo pochi grandi player” che detengono la totalità della programmazione dell’I.A.
Per Benanti quindi non ci sono dubbi: l’intelligenza artificiale se applicata alla giustizia provocherebbe dei cambiamenti di tipo “valoriale”, per questo deve rimanere “umana” senza essere meccanicizzata.

Per rivedere la seduta: clicca qui!

ARTICOLI CORRELATI

Mafie e Intelligenza Artificiale, Gratteri: ''Una sfida che ci coglie impreparati''

ANTIMAFIADuemila
Associazione Culturale Falcone e Borsellino
Via Molino I°, 1824 - 63811 Sant'Elpidio a Mare (FM) - P. iva 01734340449
Testata giornalistica iscritta presso il Tribunale di Fermo n.032000 del 15/03/2000
Privacy e Cookie policy

Stock Photos provided by our partner Depositphotos