Intelligenza aritificiale, algoritmi e implicazioni sui diritti umani

Una analisi giuridica con una prospettiva internazionale

Intelligenza Artificiale, algoritmi e diritti.

L'Intelligenza Artificiale (IA) e le tecnologie correlate hanno iniziato a modellare spazi importanti dell'economia digitale ed ad i fluenzare aree essenzaili della società.

Il loro utilizzo nella nostra vita quotidiana è in aumento e copre molti campi di attività: dal semplice sistema per evitare un ingorgo stradale con l’uso di navigazione satellitare, all’identi cazione dei migliori candidati per una posizione lavorativa, al ranking degli studenti per l’ammissione al college, a quelli più complessi, come la gestione delle missioni spaziali, l’utilizzo in operazioni strategiche, la piani cazione di trattamenti farmacologici sino alla mappatura del genoma umano.

Sono voci senza un corpo: che si tratti di trasporto o produzione, giustizia sociale o istruzione, possono potenzialmente rimodellare, in modo visibile e invisibile, le attività quotidiane, i rapporti personali, professionali e ambientali di tutti noi.

Man mano che si perfeziona, e si diffonde, l’intelligenza artficiale si amalgama con le nostre esperienze e diventa un facilitatore che media le interazioni in un modo conveniente e, mentre crea nuove opportunità, rischia di interferire con l’autodeterminazione individuale, ponendo problemi etici e legali spesso sottovalutati.

Data la portata del loro impatto sulla società, non sorprende che l’uso dell’IA e degli algoritmi, nel processo decisionale, sollevi una serie di preoccupazioni relative ai diritti. Le decisioni automatizzate, la qualità dell’analisi dei dati e l’adattabilità dei sistemi, basandosi su modelli “alimentati” da umani, possono creare distorsioni, rivelarsi fonti di pregiudizi (consci o inconsci) tali da consolidare forme di discriminazione storiche, difficili da identi care e affrontare. Detti modelli, pur presentandosi come prodotti di strumenti matematici neutri, possono alterare la verità, dimostrandosi, di fatto, non trasparenti e difficilmente contestabili. Inoltre, la possibilità di dedurre, dai dati disponibili, informazioni dettagliate sulle persone, aumenta i rischi di classificare gli individui in categorie rafforzando, in tal modo, diverse forme di stereotipi (es: uomo/donna) culturali e sociali.

Occorre precisare che le parole intelligenza artificiale e algoritmo sono spesso usate in modo intercambiabile, contribuendo con ciò a generare confusione in un ambiente già complesso. Possiamo tentare, brevemente e non esaustivamente, di riassumere la loro differenza: un algoritmo è una procedura di calcolo, ben definita. Una sequenza di istruzioni, semplice o complessa, che, a partire da determinati valori in ingresso, fornisce determinati valori in uscita. L’intelligenza artificiale è un insieme di algoritmi in grado di far fronte a differenti circostanze - risolvendo problemi o svolgendo compiti - che differiscono a seconda che i dati che ricevono siano strutturati o meno.

Gli strumenti di apprendimento automatico, dunque, hanno la crescente capacità non solo di prevedere le scelte, ma di alterarle, e ciò è in contrasto con il rispetto dei valori fondamentali della società, come l’equità, la giustizia e i diritti (Nazioni Unite, 2018)

È legittimo, pertanto, domandarsi: chi o cosa è responsabile delle azioni impiegate dall’intelligenza artificiale?
 Il quesito è apparentemente semplice, ma la risposta molto complessa. Si rende più che mai imprescindibile considerare le implicazioni e le conseguenze legali ed etiche che ne derivano, senza per questo ostacolare le innovazioni. Gli effetti di decisioni o azioni basate sull’IA sono, per lo più, il risultato di innumerevoli interazioni tra molti attori, tra cui designer, sviluppatori, utenti, software e hardware. Questa interazione comporta una “distribuzione” di responsabilità che dobbiamo essere pronti a gestire.

La comunità internazionale indaga per definire nuove teorie basate sulla responsabilità contrattuale e extracontrattuale, sulla responsabilità oggettiva, tentando di adottare un modello di responsabilità perfetta. Detto modello dovrebbe separare l’onere di un agente dalle intenzioni di chi esegue una determinata azione e di chi controlla determinati risultati, considerando, comunque, il sistema come un unicum.

Nel caso dell’intelligenza artificiale ciò è fondamentale: distribuire la responsabilità tra i progettisti, i regolatori e gli utenti, ma all’interno di uno stesso insieme, “spinge” tutti gli agenti coinvolti ad adottare comportamenti responsabili.

Il processo decisionale algoritmico e le implicazioni per i diritti umani


Negli ultimi anni si è sviluppata una letteratura multidisciplinare sulla responsabilità algoritmica, in particolare sull’inadeguatezza della trasparenza per la comprensione e la governance dei sistemi algoritmici.

Senza voler prevedere tutte le potenziali proprietà degli algoritmi e il loro processo decisionale in futuro, le seguenti caratteristiche degli algoritmi impiegati nell’elaborazione automatizzata dei dati e nel processo decisionale semiautomatico sono considerate questioni chiave dal punto di vista dei diritti umani: automazione, analisi dei dati e adattabilità.

La capacità dei sistemi informatici automatizzati di sostituire gli esseri umani in un numero crescente di situazioni è una caratteristica chiave dell’implementazione degli algoritmi. Gli algoritmi decisionali automatizzati sono, oramai, utilizzati in una varietà di domini, da modelli semplicistici ad algoritmi di profilazione più complessi (https://rm.coe.int/algorithms-and-human- rights-en-rev/16807956b5). Le ragioni della “sostituzione”, nel processo decisionale, possono essere ricondotte a questioni di elaborazione dei dati su larga scala, alla velocità, volume degli stessi e, in molti casi, alle aspettative di tassi di errore più bassi rispetto a quelli umani.

Gli algoritmi di analisi dei dati sono applicati per trovare schemi di correlazione all’interno dei set di dati. Il loro utilizzo nel riconoscimento di pattern, senza “comprendere” la loro correlazione o le relazioni causali, può portare a errori e sollevare preoccupazioni sulla qualità stessa dei dati. Questi algoritmi replicano le funzioni eseguite dagli esseri umani, ma applicano una logica decisionale quantitativamente e qualitativamente diversa rispetto ai dati immessi.

Gli effetti del processo decisionale automatizzato possono essere inquadrati come interazione tra l’analitica applicata (basata su algoritmi) e i set di dati utilizzati. Una valutazione dell’impatto sui diritti umani dovrebbe tenere conto di entrambi gli elementi poiché, per fare un esempio, il bias può essere nascosto nel set di dati e quindi non può essere trovato analizzando l’algoritmo stesso.

Quanto all’adattabilità, essa è documentata in algoritmi di autoapprendimento che utilizzano i dati per sviluppare nuovi modelli e conoscenze e che generano regole decisionali attraverso tecniche di apprendimento automatico. Gli algoritmi sono “efficienti” quando i dati erogati sono “buoni/efficienti”. Se i dati sono obsoleti, errati, incompleti o scarsamente selezionati, i risultati saranno discutibili.

Con un numero elevatissimo di elementi che vengono così rapidamente prodotti, senza un controllo di qualità sul modo con cui gli stessi sono generati e poi utilizzati, si corre il rischio di rafforzare comportamenti discriminatori o concetti stereotipati, aumentando le disuguaglianze e minando in modo significativo il rispetto dei diritti umani. Ad esempio, un algoritmo può essere addestrato ad utilizzare, per un lavoro, candidati con caratteristiche maschili prevalenti.


A ciò deve aggiungersi che gli utenti impegnati a cercare, ricevere o impartire informazioni, si rivolgono ai motori di ricerca che fungono da gate- keeper. Il contenuto che non è indicizzato o classificato in modo elevato da un dato motore di ricerca, ha meno probabilità di raggiungere un vasto pubblico o rischia addirittura di non essere visto per nulla. Di conseguenza, si possono creare “echo chamber”, camere eco, che favoriscono solo determinati tipi di notizie, aumentando così i livelli di polarizzazione nella società e arrivando anche ad in uire sui sistemi politici stessi.

I livelli di persuasione algoritmica possono avere effetti rilevanti sull’autonomia cognitiva degli individui e sul loro diritto di formare opinioni e prendere decisioni indipendenti.

La comunità internazionale e l’early warning diplomacy

La mancanza di diversità e inclusione nella progettazione di sistemi di IA è una preoccupazione chiave per i regolatori: invece di rendere le nostre decisioni più obiettive, si rafforzano i pregiudizi dando loro un’apparenza di obiettività. Gli impatti potenziali di queste tecnologie dirompenti sulla giustizia sociale, sull’economia, sulla geopolitica, sul genere, sull’ambiente e sulle problematiche intergenerazionali, potrebbero originare conflitti tali da influire sulla realizzazione degli Obiettivi di Sviluppo Sostenibile (Agenda 2030 per lo Sviluppo Sostenibile adottata dagli stati membri delle Nazioni Unite nel 2015) e in particolare sul n. 16 “Pace, Giustizia e Istituzioni solide”.

Le piattaforme di dati transnazionali, inoltre, assumendo sempre più poteri e funzioni, potrebbero “invadere” campi riservati agli Stati, tanto da far emergere, nella comunità internazionale, una crescente apprensione.

David Kaye, Relatore delle Nazioni Unite per la “Promozione e la protezione del diritto alla libertà di opinione e di espressione”, nel suo Rapporto sulle conseguenze delle tecnologie di intelligenza artificiale sui diritti umani, traccia una serie di raccomandazioni: in primis che i diritti umani dovrebbero guidare lo sviluppo delle pratiche commerciali, la progettazione e l’implementazione dell’IA. Egli rileva come la profilazione e il targeting 
degli utenti possa favorire una raccolta eccessivamente elevata di dati personali - deducendo informazioni sensibili su persone che non hanno fornito o confermato i dati – e come le decisioni automatizzate, spesso prese secondo criteri specifici senza trasparenza, non consentano alcun tipo di controllo.


Nel Rapporto gli stakeholder sono invitati a dimostrare una maggiore trasparenza nelle scelte dei sistemi adottati, divulgando le procedure e attuando (esortazione rivolta agli Stati) una solida legislazione sulla protezione dei dati con il riconoscimento di strumenti efficaci di difesa e di ristoro dei danni. L’applicazione di queste pratiche virtuose si scontra, però, con un comprensibile disinteresse da parte degli sviluppatori di algoritmi che potrebbero non essere disposti a rivelare codici o sistemi, tantomeno a mappare il ciclo di vita algoritmico complessivo allo scopo di fornire tracce per valutare le diverse responsabilità degli attori in ogni fase del processo.


Le imprese, in particolare le grandi aziende tecnologiche, sono attori centrali in questo settore, ma non hanno ancora raggiunto un livello di comprensione del problema tale da richiedere il bilanciamento di interessi economici con il rispetto dei diritti umani.


Il Consiglio d’Europa, in un suo studio del 2018, evidenzia, analogamente alle Nazioni Unite, una serie di preoccupazioni relative ai diritti umani e al ruolo crescente degli algoritmi nel processo decisionale.
 I diritti all’uguaglianza e alla non discriminazione sono solo due dei diritti umani che possono essere negativamente influenzati dall’uso dei sistemi di apprendimento automatico: privacy, protezione dei dati, libertà di espressione, partecipazione alla vita culturale, uguaglianza davanti alla legge sono solo alcuni degli altri diritti che potrebbero essere dan- neggiati dall’uso improprio di questa tecnologia.

Nella Dichiarazione del 13 febbraio 2019, il Comitato dei Ministri ha invitato i 47 Stati membri a considerare “la necessità di ulteriori accordi per la protezione dei dati che vadano oltre le attuali nozioni di dati personali e privacy e che affrontino gli impatti signi cativi dell’uso mirato dei dati sulle società e sull’esercizio dei diritti umani in senso più ampio “.

Alla luce di quanto sopra è stata adottata una Dichiarazione sulle capacità manipolative dei processi algoritmici che, al punto 1, recita: “Gli Stati membri del Consiglio d’Europa si sono impegnati a costruire società basate sui valori della democrazia, dei diritti umani e dello stato di diritto. Questo impegno rimane e dovrebbe essere onorato nel corso del processo in corso di trasformazione so- ciale, alimentato dai progressi tecnologici

Nella Dichiarazione si richiama l’attenzione alla crescente minaccia al diritto degli esseri umani di formare proprie opinioni e prendere decisioni indipendentemente dai sistemi automatizzati. Ritroviamo qui incluse le medesime raccomandazioni evidenziate dalle Nazioni Unite e le medesime preoccupazioni che si riferiscono ai diritti, innescate dal ruolo crescente degli algoritmi nel processo decisionale (ad esempio si vedano le Raccomandazioni CM / Rec (2007) 16, CM / Rec (2014) 6 e CM / Rec (2018) 2.

I paesi membri sono sollecitati, in particolare, a promuovere capacità critiche di alfabetizzazione digitale e a migliorare sensibilmente la consapevolezza del pubblico su quanti dati vengono generati ed elaborati da dispositivi, reti e piatta- forme personali, attraverso processi algoritmici addestrati per lo sfruttamento di tali dati.

Agli attori privati si chiede di tenere conto, e prevenire, tutti i tipi di discriminazione dei sistemi di intelligenza arti ciale a livello di input e output. Ciò implica che i team che progettano e distribuiscono detti sistemi, siano sollecitati a considerare atteggiamenti diversi, e non discriminatori, nella scelta dei set di dati e della progettazione del sistema, mettendo in atto misure per compensare tali dati. Da ultimo, il Committee on Digital Economy Policy dell’OCSE ha completato le raccomandazioni sulla intelligenza artificiale, in occasione della riunione del vertice mondiale tenutosi a Dubai nel febbraio 2019.

I membri dell’OCSE e i paesi partner hanno adottato ufficialmente una serie di principi intergovernativi sull’intelligenza arti ciale, impegnandosi a soddisfare gli standard internazionali per garantire la progettazione di sistemi sicuri, equi e affidabili.
 I principi sono stati adottati il 22 maggio 2019, coprono un’ampia gamma di questioni di policy, che investono sia attori pubblici sia privati, e che spaziano dalla crescita e benessere inclusivo e sostenibile ai valori incentrati sull’equità, trasparenza, divulgazione responsabile e sicura.

Pur riconoscendo che l’IA ha impatti globali diffusi e pervasivi, che stanno trasformando le società, i settori economici e il mondo del lavoro, e riconoscendo, altresì, che l’AI “promette” di migliorare la prosperità e il benessere delle persone affrontando le principali s de globali, l’OCSE ha messo in guardia la comunità internazionale dal fatto che dette trasformazioni, se non governate, potrebbero avere effetti molto diversi a seconda della struttura dei paesi e tra un’economia all’altra, in particolare in termini di cambiamenti economici, concorrenza, transizioni nei mercati del lavoro, con ricadute negative sulle disuguaglianze e con conseguenze sulla democrazia, sui diritti umani, la privacy e la riservatezza dei dati e la sicurezza digitale.

Nelle linee guida si esortano i governi, in un’ottica di cooperazione internazionale, a considerare, e promuovere, investimenti pubblici a lungo termine e incoraggiare investimenti privati nella ricerca e nello sviluppo, anche interdisciplinare, non solo per affrontare nuove s de tecniche, ma per valutare le implicazioni di natura sociali, legali ed etiche relative all’IA.

Poiché l’intelligenza artificiale accresce il processo decisionale umano, i legislatori e i policymaker dovranno tenere conto dei rischi relativi, concependo sistemi regolatori atti a preservare il rispetto dei diritti umani e la tenuta stessa dello stato di diritto.