Un progetto dell’Unione europea per l’innovazione responsabile nell’intelligenza artificiale per la pace e la sicurezza
2 dicembre 2022 di Mauro Varotto
AI for Good Global Summit è un evento internazionale sull’intelligenza artificiale (AI) che si tiene ogni anno dal 2017.
E’ ospitato dall’ITU (International Telecommunication Union) e riunisce vari governi, industrie, università, media, oltre a 37 agenzie specializzate delle Nazioni Unite (ONU), l’American Society for Computer Information Science ( ACM) e, come partner, la Fondazione XPRIZE, ente senza scopo di lucro che organizza competizioni a premio per incoraggiare l’innovazione a beneficio dell’umanità.
L’interesse delle Nazioni Unite verso questa iniziativa è dovuto al fatto che l’IA ha compiuto rapidi progressi negli ultimi anni e può avere un grande potenziale per risolvere i problemi sociali e accelerare il progresso degli obiettivi di sviluppo sostenibile (SDG) dell’Agenda 2030 delle Nazioni Unite.
Attraverso discussioni attive in un’ampia gamma di settori, dall’istruzione alle cure mediche, la salute e il benessere, dal commercio, all’agricoltura, allo spazio, nonché la creazione di progetti di collaborazione tra industrie, governi e università (ne sono stati lanciati più di 150 sino ad oggi), l’iniziativa dal 2018 favorisce lo sviluppo di soluzioni innovative basate sull’IA al fine di accelerare il raggiungimento degli SDGs dell’ONU.
Questa direzione è stata favorita dal Segretario generale delle Nazioni Unite che, proprio nel 2018, ha identificato la ricerca e l’innovazione responsabili (Responsible research and innovation – RRI) nella scienza e nella tecnologia come un approccio per il mondo accademico, il settore privato e i governi per lavorare alla mitigazione dei rischi posti dalle nuove tecnologie: perché l’IA comporta vantaggi ma anche notevoli rischi per la pace e la sicurezza collettiva.
Per attenuare i rischi che lo sviamento e l’uso improprio della ricerca e dell’innovazione civili in materia di IA, da parte di attori irresponsabili, possono comportare per la pace e la sicurezza internazionali, quindi, è necessaria la collaborazione di tutti – governi, industria, mondo accademico e società civile – al fine di sviluppare quadri e sistemi che favoriscano l’innovazione responsabile, come ha invitato a fare sempre il segretario generale delle Nazioni Unite al AI for Good Global Summit del 2019.
Anche l’Unione europea si è posta già da tempo il problema di un uso responsabile dell’IA, sia nell’ambito della sua strategia globale per la politica estera e di sicurezza del 2016 che nella strategia contro le armi da fuoco, le armi leggere e le armi di piccolo calibro illegali e le relative munizioni (SALW) del 2018.
Inoltre, in una comunicazione del 2018, dal titolo “L’intelligenza artificiale per l’Europa” – che ho illustrato in un precedente articolo del blog – la Commissione europea ha stabilito che il principio guida di tutto il sostegno dell’Unione europea alla ricerca collegata all’intelligenza artificiale (IA) sarà lo sviluppo di una “IA responsabile”, precisando che, data la facilità con cui l’IA è commercializzata internazionalmente, in tale campo possono essere sostenibili solo soluzioni a livello mondiale, e che l’Unione promuoverà l’uso dell’IA, e delle tecnologie in generale, per contribuire a risolvere le sfide globali, sostenere l’attuazione dell’accordo di Parigi sui cambiamenti climatici e conseguire gli obiettivi di sviluppo sostenibile delle Nazioni Unite.
Questa convergenza tra l’ONU e l’Unione europea nel campo dell’uso responsabile dell’IA è sfociata in un nuovo progetto di promozione dell’innovazione responsabile nell’intelligenza artificiale per la pace e la sicurezza, proposto dell’Alto rappresentante dell’Unione per gli affari esteri e la politica di sicurezza e adottato dal Consiglio dell’Unione europea il 18 novembre 2022.
Il progetto stanzia circa 1,8 milioni di euro con l’obiettivo specifico di sostenere un maggiore impegno della comunità civile dell’intelligenza artificiale (IA) nell’attenuare i rischi che lo sviamento e l’uso improprio della ricerca e dell’innovazione civili in materia di IA da parte di attori irresponsabili possono comportare per la pace e la sicurezza internazionali, attraverso attività in grado di:
- generare una maggiore comprensione del modo in cui le decisioni nello sviluppo e nella diffusione della ricerca e dell’innovazione in materia di IA possono incidere sui rischi di sviamento e uso improprio e generare a loro volta rischi o opportunità per la pace e la sicurezza;
- promuovere processi, metodi e strumenti di innovazione responsabile che possano contribuire a garantire l’applicazione pacifica delle innovazioni civili e la diffusione responsabile delle conoscenze in materia di IA. A tal fine, il progetto sosterrà attività di sviluppo di capacità, di ricerca e di coinvolgimento che: rafforzano la capacità nell’ambito della comunità civile mondiale dell’IA di includere e affrontare i rischi per la pace e la sicurezza derivanti dallo sviamento e dall’uso improprio dell’IA civile da parte di attori irresponsabili mediante processi di innovazione responsabile e rafforzano il collegamento tra gli sforzi di attenuazione dei rischi nell’IA responsabile in ambito civile e quelli già in corso nella comunità del disarmo, del controllo degli armamenti e della non proliferazione a livello intergovernativo.
Il progetto e le sue attività, compiutamente descritti nell’allegato alla decisione e di cui riporto il link a piè di pagina, non sono volti a stabilire nuove norme, principi o regolamentazioni, né a intervenire altrimenti in settori che sono di competenza degli Stati membri dell’Unione europea. L’intenzione, invece, come si legge nella decisione, è di sviluppare sforzi di innovazione civile responsabile al fine di includere i rischi per la pace e la sicurezza derivanti dallo sviamento e dall’uso improprio dell’IA civile da parte di attori irresponsabili e di fornire informazioni sui pertinenti sforzi intergovernativi esistenti.
Il progetto finanziato dall’Unione europea sarà gestito, in regime di gestione indiretta, dalla Ufficio per gli affari del disarmo delle Nazioni Unite (UNODA – United Nations Office for Disarmament Affairs), con il supporto dell’Istituto internazionale di ricerca sulla pace di Stoccolma (SIPRI – Stockholm International Peace Research Institute).
ACCESSO DIRETTO ALLE FONTI DI INFORMAZIONE:
DECISIONE (PESC) 2022/2269 DEL CONSIGLIO del 18 novembre 2022 sul sostegno dell’Unione all’attuazione di un progetto di promozione dell’innovazione responsabile nell’intelligenza artificiale per la pace e la sicurezza, in GU UE n. 300 del 21.11.2022
La piattaforma collaborativa on line di AI for Good è accessibile dal seguente link.