I sette orientamenti etici dell’UE per lo sviluppo di un’intelligenza artificiale antropocentrica

12 aprile 2019 di Mauro Varotto

Dopo un anno di intenso lavoro, la Commissione europea presenta l’approccio europeo per lo sviluppo e l’utilizzo dell’intelligenza artificiale (IA), cioè di quei “sistemi che mostrano un comportamento intelligente analizzando il proprio ambiente e compiendo azioni, con un certo grado di autonomia, per raggiungere specifici obiettivi”.

In breve tempo, tali sistemi diventeranno la norma per molti tipi di beni e servizi di uso quotidiano – dagli smartphone alle automobili automatizzate, ai robot e alle applicazioni online – e poiché le decisioni prese dagli algoritmi potrebbero basarsi su dati incompleti e, quindi, non affidabili, manomessi a seguito di attacchi informatici, inficiati da condizionamenti o semplicemente errati, è necessario che la tecnologia dell’IA sia sviluppata in modo sicuro e, soprattutto, ponendo al centro l’essere umano.

L’intelligenza artificiale, infatti, non è fine a se stessa, ma è uno strumento a servizio delle persone che ha come fine ultimo quello di migliorare il benessere degli esseri umani.

Da questa constatazione nasce l’esigenza di un approccio etico all’IA, un approccio antropocentrico, capace di rafforzare la fiducia dei cittadini nello sviluppo digitale e, nel contempo, di creare un vantaggio competitivo per le imprese europee che lavorano in tale ambito.

Sebbene l’Unione europea disponga già di un solido quadro normativo destinato a diventare lo standard internazionale per questo modello di “IA antropocentrica”, tuttavia tale tecnologia pone sfide del tutto nuove, perché consente alle macchine di “imparare”, prendere decisioni ed eseguirle senza l’intervento umano.

Di conseguenza, secondo la Commissione europea, le applicazioni di IA dovrebbero non solo rispettare la legge, ma anche osservare alcuni principi etici, per garantire l’affidabilità dell’IA e la sua rispondenza ai valori europei.

In proposito, la Commissione europea sottolinea con forza che: “I valori su cui si basano le nostre società devono essere pienamente integrati nelle modalità di sviluppo dell’IA”, in particolare i valori del rispetto della dignità umana, della libertà, della democrazia, dell’uguaglianza, dello Stato di diritto e del rispetto dei diritti umani, compresi i diritti delle persone appartenenti a minoranze.

 

Il percorso verso la definizione di un approccio etico all’IA

Il cammino percorso dell’Unione europea nel campo dell’IA è partito un anno fa, il 10 aprile 2018, con la sottoscrizione di un accordo politico tra ventiquattro Paesi dell’Unione europea (tra i quali l’Italia), cui si è aggiunta la Norvegia, che ho descritto in un precedente articolo.

Questo accordo ha dato il via a una cooperazione a livello europeo nel settore dell’IA sfociata, dapprima, in una strategia generale dell’Europa per l’IA, presentata alla fine del medesimo mese di aprile; in secondo luogo, in un piano coordinato sull’IA tra Unione europea e Stati membri, presentato nel dicembre dello scorso anno: tale piano ha lo scopo di creare sinergie, condividere i dati – la materia prima per molte applicazioni di IA – e aumentare gli investimenti congiunti.

Lo scopo di tali iniziative (i link ai testi sono reperibili in appendice) è quello di recuperare il gap tecnologico che ha accumulato l’Europa rispetto a USA e Cina, attraverso la cooperazione tra i Paesi dell’Unione, la mobilitazione di tutti gli attori, pubblici e privati, e un aumento degli investimenti europei nell’IA fino alla soglia di almeno 20 miliardi di euro l’anno nei prossimi dieci anni.

Per farsi una idea dello sforzo promosso dall’Unione europea, basti pensare che oggi gli investimenti in IA in Europa raggiungono appena i 3 miliardi di euro all’anno, rispetto ai circa 10 miliardi di euro dell’Asia e ai quasi 20 miliardi di euro in America del Nord.

Anche l’Unione europea farà la sua parte: la Commissione ha già raddoppiato gli investimenti nell’IA nell’ambito del programma quadro per la ricerca e l’innovazione “Orizzonte 2020” portandoli a quasi 1,5 miliardi di euro nel triennio 2018-2020; inoltre, prevede di investire un miliardo di euro l’anno nei futuri programmi “Orizzonte Europa” ed “Europa digitale”, soprattutto per sostenere spazi di dati comuni nei settori della sanità, dei trasporti e delle attività produttive, grandi centri di sperimentazione come ospedali intelligenti e infrastrutture per i veicoli automatizzati e un’agenda strategica di ricerca.

 

I lavori preparatori dell’approccio etico

La Commissione europea ha istituito un gruppo di esperti ad alto livello sull’IA, in rappresentanza di un’ampia gamma di portatori di interessi, incaricandolo della stesura di orientamenti etici sull’IA e della redazione di una serie di raccomandazioni per una più ampia politica europea in materia.

Parallelamente, è stata istituita l’Alleanza europea per l’IA, una piattaforma multilaterale aperta con oltre 2.700 membri, per fornire un contributo più vasto ai lavori del gruppo di esperti ad alto livello sull’IA.

Nel dicembre 2018 il gruppo di esperti ad alto livello ha pubblicato un primo progetto di orientamenti etici; in seguito a una consultazione dei portatori di interessi e a riunioni con rappresentanti degli Stati membri, nel marzo 2019 il medesimo gruppo di esperti ha presentato alla Commissione un documento definitivo.

Sulla base di questi lavori, quindi, la Commissione ha elaborato la proposta di una serie di orientamenti etici, fondati sul quadro normativo esistente e che dovrebbero essere applicati da sviluppatori, fornitori e utenti dell’IA nel mercato interno europeo, stabilendo condizioni di parità sul piano etico in tutti gli Stati membri.

 

I sette requisiti etici fondamentali dell’intelligenza artificiale

Gli orientamenti partono dal presupposto che per ottenere una “intelligenza artificiale affidabile” sono necessari tre elementi:

1) l’IA dovrebbe rispettare la legge,

2) l’IA dovrebbe osservare i principi etici e

3) l’IA dovrebbe dimostrare robustezza.

Sulla base di questi tre elementi e dei valori europei, gli orientamenti individuano sette requisiti fondamentali che le applicazioni di IA dovrebbero soddisfare per essere considerate affidabili e per poter essere utilizzate nel mercato europeo.

I sette requisiti fondamentali sono:

  • intervento e sorveglianza umani, perché i sistemi di IA dovrebbero aiutare le persone a compiere scelte migliori e più consapevoli nel perseguimento dei loro obiettivi. Pertanto, i sistemi di IA devono prevedere meccanismi di governance che garantiscano l’adozione di un approccio con intervento umano (“human-in-the-loop”), con supervisione umana (“human-on-the-loop”) o con controllo umano (“human-in-command”) e devono garantire che le autorità pubbliche siano in grado di esercitare una sorveglianza in linea con i loro compiti di interesse pubblico;
  • robustezza tecnica e sicurezza, per rendere l’IA affidabile con algoritmi sicuri, affidabili e sufficientemente robusti da far fronte a errori o incongruenze durante tutte le fasi del ciclo di vita del sistema di IA, oltre che adeguatamente capaci di gestire risultati sbagliati;
  • riservatezza e governance dei dati, perché la tutela della riservatezza e la protezione dei dati devono essere garantite in tutte le fasi del ciclo di vita del sistema di IA. Le registrazioni digitali del comportamento umano possono consentire ai sistemi di IA di dedurre non solo le preferenze, l’età e il genere dei singoli, ma anche il loro orientamento sessuale e il loro credo religioso o politico. Per far in modo che le persone abbiano fiducia nel trattamento dei dati, occorre garantire loro il pieno controllo dei dati personali e assicurare che i dati che li riguardano non saranno utilizzati per arrecare danno o per discriminarli;
  • trasparenza, poiché la tracciabilità dei sistemi di IA dovrebbe essere sempre garantita. In proposito, è importante registrare e documentare sia le decisioni adottate dai sistemi sia l’intero processo che ha prodotto le decisioni, comprese una descrizione della raccolta e dell’etichettatura dei dati e una descrizione dell’algoritmo utilizzato;
  • diversità, non discriminazione ed equità, poiché i set di dati utilizzati dai sistemi di IA (sia per l’addestramento sia per il funzionamento) possono essere inficiati da condizionamenti storici involontari, incompletezza e modelli di governance Per superare tali lacune, possono essere utili anche la creazione di gruppi di progettazione diversificati e l’istituzione di meccanismi per garantire la partecipazione, in particolare dei cittadini, allo sviluppo dell’IA;
  • benessere sociale e ambientale, perché per ottenere un’IA affidabile si dovrebbe tenere conto del suo impatto sull’ambiente e sugli altri esseri senzienti, in particolare gli animali. Inoltre, l’impatto dei sistemi di IA dovrebbe essere considerato anche dal punto di vista della società nel suo complesso: andrebbe prestata particolare attenzione all’uso dei sistemi di IA soprattutto nelle situazioni che riguardano il processo democratico;
  • accountability, nel senso di prevedere meccanismi che garantiscano la responsabilità e l’accountability dei sistemi di IA e dei loro risultati. La verificabilità dei sistemi di IA è fondamentale in questo contesto, poiché la valutazione dei sistemi di IA da parte di revisori interni ed esterni, e la disponibilità di tali relazioni di valutazione, contribuiscono fortemente all’affidabilità della tecnologia. In tale contesto, i potenziali impatti negativi dei sistemi di IA dovrebbero essere individuati, valutati, documentati e ridotti al minimo.

 

Prossime tappe

Per garantire lo sviluppo etico dell’IA in Europa, la Commissione europea intende di passare dalle strategie a una “fase pilota” che prevede il diretto coinvolgimento dei portatori di interessi per testare l’attuazione su ampia scala dell’approccio europeo all’IA.

A tal fine, le seguenti iniziative saranno intraprese già nel corso del 2019:

  • la creazione di una serie di reti di centri di eccellenza per la ricerca sull’IA tramite il programma “Orizzonte 2020”. In particolare, selezionerà un massimo di quattro reti, incentrate in particolare sulle maggiori sfide scientifiche o tecnologiche come la spiegabilità e l’interazione avanzata uomo-macchina, elementi fondamentali per un’IA affidabile;
  • l’avvio di reti di Cluster dell’innovazione digitale incentrati sull’IA per le attività produttive e sui big data;
  • infine, insieme agli Stati membri e ai portatori di interessi, la Commissione avvierà discussioni preparatorie per sviluppare e attuare un modello per la condivisione dei dati e per utilizzare al meglio gli spazi di dati comuni, in particolare nei settori dei trasporti, dell’assistenza sanitaria e della produzione industriale.

 

ACCESSO DIRETTO ALLE FONTI DI INFORMAZIONE:

I tre documenti fondamentali dell’Unione europea sulla IA sono i seguenti:

Profilo dell’autore

Ricerca per tema:

Ricerca per data:

aprile: 2019
L M M G V S D
1234567
891011121314
15161718192021
22232425262728
2930  

Visite:

  • 211.269

Scopri l’UE:

%d blogger hanno fatto clic su Mi Piace per questo: