L’UE definisce regole e linee guida per l’Intelligenza Artificiale, garantendo responsabilità e innovazione nel panorama europeo.
Negli ultimi anni, l’Intelligenza Artificiale (IA) ha trovato applicazione in un numero crescente di settori, trasformando il modo in cui lavoriamo, comunichiamo e, persino, progettiamo il futuro.
Anche nell’ambito dei progetti cofinanziati dall’Unione europea, la tecnologia IA sta diventando uno strumento prezioso, ma con il suo crescente impiego emerge la necessità di stabilire delle regole precise.
Anche per questo, l’Unione europea ha definito un quadro regolamentare rigoroso e specifiche linee guida per l’uso dell’IA nella progettazione dei contenuti dei progetti candidati a finanziamenti.
In questo articolo, sintetizzerò quali sono le principali indicazioni per chi lavora con programmi e fondi europei, con un focus particolare su responsabilità, trasparenza e integrità.
In appendice riporto i link ai principali e attuali testi di riferimento sul tema.
- Il regolamento UE sull’Intelligenza Artificiale: un quadro normativo per un uso sicuro e affidabile
Il Parlamento europeo e il Consiglio dell’Unione europea hanno recentemente approvato il Regolamento (UE) 2024/1689 sull’IA, che introduce regole armonizzate per l’uso dell’IA in tutti i settori dell’economia e della società.
Questo regolamento si applica a diversi tipi di sistemi IA, con particolare attenzione ai cosiddetti sistemi “ad alto rischio”.
Ma cosa significa per i professionisti che si occupano di progettazione europea?
Il regolamento ha l’obiettivo di garantire che l’IA sia sviluppata e utilizzata nel rispetto dei valori europei di trasparenza, equità e sicurezza, prevenendo discriminazioni e violazioni dei diritti.
Per chi redige progetti, questo si traduce in una serie di obblighi:
- trasparenza nell’uso dell’IA: i progettisti europei devono dichiarare esplicitamente se e come l’IA è stata utilizzata nel progetto, spiegando in che modo ha contribuito allo sviluppo dei contenuti;
- responsabilità umana: il controllo e la supervisione del contenuto restano affidati a esseri umani. L’IA può supportare nella generazione di testi, nella raccolta di dati o nella gestione di informazioni, ma non può sostituire il ruolo critico del progettista;
- conformità con i diritti fondamentali: gli strumenti di IA devono rispettare rigorosi criteri di tutela dei dati e dei diritti individuali, compresi i diritti d’autore e quelli della privacy, nonché evitare qualsiasi forma di discriminazione diretta o indiretta.
In sintesi, il regolamento riconosce i benefici dell’IA, ma insiste sull’adozione di misure adeguate a evitare potenziali rischi, specialmente in contesti in cui l’IA può influenzare decisioni delicate e impattanti, comprese le decisioni di assegnazione di finanziamenti.
- Le linee guida della Commissione europea: consigli pratici per un uso responsabile dell’IA nella ricerca
Parallelamente al Regolamento, la Commissione europea – sulla scorta di un documento di approfondimento dei suoi consulenti scientifici che evidenziavano la mancanza di “politiche dedicate e sistemiche che facilitino l’adozione dell’intelligenza artificiale nella scienza” – ha pubblicato delle Living guidelines dedicate a chi opera nel settore della ricerca e della progettazione europea, soprattutto nel campo della ricerca e dell’innovazione, ma con indicazioni generalizzabili a tutti gli ambiti.
Queste linee guida sono uno strumento pratico che aiuta i ricercatori e i progettisti a orientarsi nell’uso etico e responsabile dell’IA, promuovendo un approccio bilanciato tra innovazione e sicurezza.
Con la rapida diffusione dell’uso di questa tecnologia in tutti i settori, compresa la scienza, queste raccomandazioni affrontano opportunità e sfide chiave. Basandosi sui principi di integrità della ricerca, offrono una guida a ricercatori, organizzazioni di ricerca e finanziatori della ricerca per garantire un approccio coerente in tutta Europa.
Il timore è quello di eliminare dai progetti la componente umana e finire con macchine che scrivono applicazioni da una parte e le leggono dall’altra: si perde di qualità ma, soprattutto, si perde il coinvolgimento nella costruzione di un progetto.
I principi che definiscono le nuove linee guida si basano su quadri di riferimento europei già esistenti, quali il Codice di condotta europeo per l’integrità della ricerca e le Linee guida sull’IA affidabile.
I punti centrali delle linee guida riguardano:
- integrità e trasparenza: i contenuti generati dall’IA devono essere chiaramente identificati e dichiarati. Questo include l’uso dell’IA per attività di supporto, come la revisione o la traduzione automatica di testi. La chiarezza sull’uso di questi strumenti è fondamentale per garantire trasparenza e affidabilità;
- limitare l’IA a compiti di supporto: la Commissione europea raccomanda di utilizzare l’IA per semplificare compiti ripetitivi o tecnici e ad alta intensità di lavoro, evitando che lo strumento IA prenda il controllo creativo o decisionale. A esempio, se un progetto richiede una revisione linguistica, è possibile utilizzare l’IA per aiutare a migliorare la leggibilità, ma le scelte di stile e contenuto devono rimanere in mano umana;
- conformità alle normative sulla privacy e protezione dei dati: gli strumenti di IA spesso richiedono l’uso di grandi quantità di dati, inclusi dati personali. I ricercatori e i progettisti devono assicurarsi che i dati utilizzati rispettino il Regolamento Generale sulla Protezione dei Dati (GDPR), garantendo la tutela della privacy e la sicurezza dei dati sensibili.
Queste linee guida rappresentano uno strumento pratico e flessibile non solo per i ricercatori ma per i progettisti europei in generale, poiché consentono di adattare il proprio lavoro all’uso dell’IA, garantendo però che restino sempre chiari i limiti e le responsabilità.
- Casi di uso improprio dell’IA e il richiamo alla responsabilità: gli avvertimenti del Consiglio Europeo della Ricerca (ERC)
Il crescente utilizzo dell’IA ha già portato alla luce alcuni episodi di utilizzo improprio.
Recentemente, alcuni ricercatori hanno presentato progetti per finanziamenti europei utilizzando l’IA in modo non dichiarato o manipolando i contenuti originali in modo inadeguato. Il Consiglio Europeo della Ricerca (ERC), in un comunicato del 20 dicembre 2023, intitolato European Research Council issues warning on AI’s use in grant applications, ha sottolineato l’importanza di mantenere l’integrità accademica, esprimendo preoccupazione per gli impatti negativi di un uso eccessivo o non etico dell’IA.
Pur riconoscendo che molti scienziati utilizzano l’intelligenza artificiale “per fare brainstorming o generare idee, per ricercare nella letteratura e per rivedere, tradurre o riassumere il testo”, il messaggio dell’ERC è chiaro: l’IA deve essere considerata come uno strumento di supporto e mai come un sostituto del lavoro intellettuale e critico del ricercatore.
L’uso dell’IA nella stesura di una proposta di ricerca – afferma l’ERC – “non esonera l’autore dall’assumersi la piena e unica responsabilità di paternità per quanto riguarda i riconoscimenti, il plagio e la pratica di una buona condotta scientifica e professionale”.
Questo significa che i ricercatori devono:
- mantenere un controllo diretto sul contenuto: l’IA non può sostituire il lavoro di ricerca. Ogni proposta presentata deve essere scrupolosamente supervisionata e validata da persone competenti;
- prevenire il plagio e la standardizzazione dei contenuti: l’uso dell’IA per generare contenuti rischia di creare testi “omogenei” o di riprodurre errori, con potenziali accuse di plagio. È essenziale che ogni parola e contenuto prodotti dall’IA siano accuratamente rivisti per garantire l’originalità.
L’ERC, inoltre, ha recentemente introdotto modifiche significative nel processo di valutazione delle proposte di ricerca, con particolare attenzione all’uso dell’Intelligenza Artificiale (IA).
Nel Programma di lavoro 2024, l’ERC ha semplificato i moduli per la presentazione delle proposte, combinando il CV e il track record (cioè le informazioni sull’esperienza e i risultati professionali) del ricercatore in un unico documento di quattro pagine. Questa modifica mira a valutare le proposte basandosi esclusivamente sull’eccellenza scientifica, focalizzandosi sulla capacità e creatività del proponente nel realizzare il progetto.
La stessa Commissione europea a novembre 2023 ha istituito una nuova unità nella DG Ricerca per sviluppare una politica sull’uso dell’IA nella scienza e nell’industria. Valutare l’impatto dell’IA sulla stesura delle proposte sarà una delle massime priorità della nuova unità, come anche l’impatto dell’uso dell’IA nella valutazione delle proposte stesse, poiché il rischio, in quest’ultimo caso, è che siano approvate proposte che si adattano solo a specifici requisiti algoritmici.
- Buone pratiche per l’utilizzo dell’IA nella redazione di progetti
Per chi redige proposte da sottoporre a programmi e fondi europei, l’IA può rivelarsi uno strumento prezioso se utilizzata nel rispetto delle regole e con il giusto grado di consapevolezza.
Riassumendo quanto sin qui scritto sul dibattito in corso e rinviando ai documenti riportati in calce all’articolo per i necessari approfondimenti, alcune buone pratiche che possono fare la differenza sono le seguenti:
- dichiarare l’uso dell’IA: è buona prassi segnalare apertamente se e come l’IA ha contribuito al progetto. Questo non solo aumenta la trasparenza, ma riduce anche il rischio di fraintendimenti durante la valutazione;
- usare l’IA per semplificare, non per sostituire: l’IA è utile per attività come l’analisi di grandi quantità di dati, la generazione di report e la revisione linguistica. Tuttavia, il contenuto strategico, le idee e le decisioni chiave devono rimanere di competenza umana;
- conformarsi alle normative sulla privacy e sicurezza dei dati: ogni dato trattato dall’IA deve rispettare rigorosamente le leggi sulla privacy e sulla protezione dei dati, garantendo il massimo rispetto dei diritti individuali;
- convalidare il lavoro dell’IA: ogni output generato dall’IA deve essere verificato attentamente. Questo processo di revisione è fondamentale per assicurarsi che il contenuto sia coerente, accurato e privo di errori.
Conclusioni
L’integrazione dell’IA nella progettazione e nella ricerca finanziata dall’UE rappresenta una nuova frontiera che offre molte opportunità, ma richiede anche grande attenzione. I regolamenti e le linee guida europee stabiliscono un chiaro confine tra l’uso responsabile e il rischio di uso improprio, imponendo regole che salvaguardano l’integrità, l’equità e i diritti dei cittadini. Per i progettisti e i ricercatori, il futuro è in mano all’IA, ma con la consapevolezza che il controllo e la responsabilità di un progetto restano, e devono restare, umani.
ACCESSO DIRETTO ALLE FONTI DI INFORMAZIONE:
- Regolamento (UE) 2024/1689 del Parlamento europeo e del Consiglio del 13 giugno 2024 che stabilisce regole armonizzate sull’intelligenza artificiale, in GU UE L, 2024/1689, 12.7.2024
- European Commission – Directorate-General for Research and Innovation, Living guidelines on the responsible use of generative AI in research, 20 March 2024
- European Commission’s Group of Chief Scientific Advisors, Scoping paper: Successful and timely uptake of Artificial Intelligence in science in the EU, 4 July 2023
- ALLEA – All European Academies, The European Code of Conduct for Research Integrity, edizione riveduta 2023
- High-Level Expert Group on Artificial Intelligence, Orientamenti etici per un’IA affidabile, 8 aprile 2019
Aggiornamenti successivi e articoli collegati
Per approfondire o seguire l’evoluzione dei temi trattati, si possono consultare i seguenti articoli collegati pubblicati su Fare l’Europa:
2 dicembre 2022 – Innovazione responsabile nell’IA per la pace e la sicurezza UE: la decisione PESC del 2022
18 febbraio 2022 – Dichiarazione europea 2022 sui diritti e i principi digitali per il decennio digitale
12 aprile 2019 – I sette orientamenti etici dell’UE per lo sviluppo di un’intelligenza artificiale antropocentrica
11 maggio 2018 – L’approccio europeo alle sfide dell’Intelligenza Artificiale
