Gli algoritmi progettati per dare giudizi e definire l’utente
L’introduzione dei giudizi degli algoritmi in ambito giuridico potrebbe notevolmente velocizzare i tempi della giustizia ma è necessario che l’uomo sia consapevole di essere “co-responsabile”
L’algoritmo come oracolo digitale che formula giudizi
“Se non stai pagando per un prodotto, allora il prodotto sei TU”, così il docufilm “The social dilemma” ricorda agli spettatori una grande verità dei colossi digitali. Facebook, Instagram ecc… perché spendiamo il nostro tempo su questi social network? Come fanno ad essere tra le cinque aziende più ricche sul pianeta se l’utente non ha mai pagato nulla?
L’utilizzo degli algoritmi e la raccolta dati sono sistemi apparentemente invisibili, soprattutto per l’utente con una precaria alfabetizzazione digitale, che tuttavia influenzano le nostre scelte e i nostri diritti. La bolla di filtro crea le condizioni per invogliare l’utente a restare nella piattaforma e la raccolta dei dati consente l’arricchimento delle aziende.
L’algoritmo è un oracolo digitale, che è la base di qualsiasi social network ma che ha ruoli fondamentali anche in altri settori. Recidiva penale, assegnazione dei docenti scolastici e diagnosi dei rumori cutanei, sono a titolo esemplificativo dei campi in cui la decisione algoritmica ha inciso sulle persone e su diritti fondamentali come la libertà personale, l’impiego professionale e il diritto alla salute.
Inoltre, individuare un errore algoritmico è più complicato rispetto a quello umano. I dati su cui si sviluppano sistemi di machine learning e su cui l’intelligenza artificiale basa le proprie decisioni, sono prodotti dalla nostra società, quindi, contengono tutti i suoi giudizi, pregiudizi e idee che vengono valutate dall’intelligenza artificiale in maniera poco critica.
Recidiva penale e assegnazione dei docenti scolastici
Alcune corti americane, utilizzando il software Compas con l’inserimento di dati parziali, hanno assegnato uno “score” del rischio di recidiva penale ingiusto e iniquo a sfavore degli afroamericani.
La legge n.107 del 2015 che ha previsto l’uso dell’algoritmo nella procedura di assegnazione delle sedi ai docenti ha determinato risultati irragionevoli.
Diagnosi dei tumori cutanei
In alcuni paesi viene utilizzato per lo screening dei tumori cutanei un software che si basa sulle caratteristiche fisiche dell’uomo bianco occidentale che si è dimostrato pregiudizievole per le donne di colore.
I giudizi degli algoritmi sono dipesi da dati inseriti o considerati, amplificando così pregiudizi. Da qui, la necessità di correlare dati e decisioni algoritmiche, aspetto determinante nella disciplina della protezione dei dati. Solo se i dati vengono correttamente inseriti si può ridurre il pregiudizio dell’algoritmo. Dunque, la disciplina della tutela dei dati personali ha un ruolo di presidio alla libertà e di garanzia di maggiore equità.
Il Regolamento vieta l’utilizzo di decisioni interamente automatizzate con incidenza sulla persona, la cui violazione implica pesanti sanzioni amministrative e che contempla deroghe tassative. Tali deroghe consistono in previsioni normative o contrattuali della decisione automatizzata o il consenso esplicito dell’interessato. Se si forniscono dati errati, la decisione non sarà davvero “intelligente” quindi sono state previste delle garanzie specifiche in contesti particolari come quelle nel campo della privacy by design e by default.
Altra tutela è rappresentata dall’obbligo informativo in modo da rendere noti i diritti e le tutele che, in generale, possiamo riassumere con i diritti di intervento e contestazione con la funzione di riequilibrare la posizione di debolezza dell’interessato. In realtà, ci sono ancora molte perplessità legata alla sufficienza di tali garanzie e tutele per cui si delinea un percorso che mira sempre di più ad una maggiore trasparenza, diffusione e consapevolezza di diritti e capacità di attivare le procedure di tutela.
Riconoscere i giudizi e i pregiudizi degli algoritmi
La Commissione per l’efficienza della giustizia del Consiglio D’Europa (CEPEJ), nel dicembre 2018, ha adottato per la prima volta una Carta etica per l’utilizzo di sistemi di intelligenza artificiale in ambito giuridico e forense. Il documento si basa su cinque principi e ha come obiettivo quello di far in modo che le decisioni algoritmiche possano essere corrette e ridimenzionate secondo il “Daubert test” per cui se la decisione dell’algoritmo non è scientificamente convincente, non può essere la base di una decisione giudiziale.
Il primo dei principi della Carta si riferisce all’ipotesi di utilizzo in sede processuale in cui va garantito che gli strumenti di intelligenza artificiale non violino il diritto di accesso al giudice e il diritto ad un processo equo. Il secondo ribadisce il rispetto del principio di non discriminazione. Il terzo afferma il principio della qualità dei dati che dunque devono provenire da fonti certe al fine di evitare errori. Il quarto riguarda la trasparenza, l’imparzialità e la correttezza della decisione. Il quinto è il principio “dell’under user control” che impone il controllo umano sul giudizio artificiale.
L’elemento che ricorre e che costituisce una sorta di schema rilevante per comprendere realmente l’impiego dell’intelligenza artificiale e che spesso viene tralasciato è che in primis è il contributo umano, attraverso i dati, che mette in moto la macchina artificiale e che diventa base della decisione stessa e, nonostante ciò, si rende imprescindibile un controllo finale da parte dell’uomo, perché ciò che fa la differenza è la capacità critica che non è ancora ripetibile dalle macchine.
Valeria Cantarella per Questione Civile
Sitografia e Bibliografia
- www.coe.int
- www.altalex.com
- Democrazia e potere dei dati, Antonello Soro, Baldini+Castoldi, 2019