Monito dell’Onu: “Intelligenza artificiale non sia lasciata a ‘capricci’ del mercato”
Lo sviluppo dell’intelligenza artificiale (IA) e i rischi che ne derivano non possono essere lasciati “ai capricci” del mercato. A lanciare il monito è un gruppo di esperti delle Nazioni Unite, che ha chiesto strumenti di cooperazione internazionale senza tuttavia spingersi fino a un’agenzia di governance globale.
Quasi un anno fa, il Segretario generale delle Nazioni Unite Antonio Guterres ha istituito un comitato di circa quaranta esperti nei settori della tecnologia, del diritto e della protezione dei dati personali, provenienti dal mondo accademico, dai governi e dal settore privato, come Microsoft, Google-Alphabet e OpenAI.
Il rapporto finale, pubblicato pochi giorni prima del summit di New York, rileva senza sorpresa “la mancanza di una governance globale nel campo dell’IA” e la virtuale esclusione dei Paesi in via di sviluppo dalle discussioni su questo tema vitale.
Dei 193 Stati membri dell’Onu, solo sette sono coinvolti in sette importanti iniziative di governance dell’IA (nell’ambito dell’OCSE, del G20 o del Consiglio d’Europa) e 118 sono totalmente assenti, soprattutto tra i Paesi del Sud. Eppure, proprio la natura “transfrontaliera” di queste tecnologie “richiede un approccio globale”, insiste la commissione. “L’IA deve servire l’umanità in modo equo e sicuro”, ha ribadito questa settimana Antonio Guterres. “Se lasciati incontrollati, i pericoli posti dall’intelligenza artificiale potrebbero avere serie implicazioni per la democrazia, la pace e la stabilità”.
In questo contesto, il comitato di esperti chiede agli Stati membri dell’Onu di mettere in atto strumenti per una migliore cooperazione globale, al fine di incoraggiare il progresso per l’umanità ed evitare qualsiasi slittamento. Perché “nessuno” oggi può prevedere l’evoluzione di queste tecnologie, e coloro che prendono le decisioni non sono responsabili dello sviluppo e dell’uso di sistemi che ‘non comprendono’.
In queste circostanze, “lo sviluppo, la diffusione e l’uso di queste tecnologie non possono essere lasciati ai soli capricci dei mercati”, insistono, sottolineando il ruolo “cruciale” dei governi e delle organizzazioni regionali. Il primo strumento suggerito è la creazione di un gruppo internazionale di esperti scientifici sull’IA, sul modello degli esperti climatici delle Nazioni Unite (IPCC), i cui rapporti sono un punto di riferimento nel settore.
Questi scienziati potrebbero illuminare la comunità internazionale sui rischi emergenti, identificare le aree in cui sono necessarie ulteriori ricerche e individuare il modo in cui determinate tecnologie potrebbero contribuire al raggiungimento degli obiettivi di sviluppo sostenibile (eliminazione di fame e povertà, uguaglianza di genere, clima, ecc.)
Questa idea è inclusa nella bozza del Patto digitale globale, ancora in fase di discussione, che dovrebbe essere adottato domenica dai 193 Stati membri delle Nazioni Unite in occasione del ‘Summit per il futuro’. Gli esperti suggeriscono anche di istituire un dialogo politico intergovernativo regolare sul tema e un fondo per aiutare i Paesi in ritardo.
Per fare da “collante” tra i vari strumenti, gli esperti auspicano la creazione di una struttura leggera all’interno del Segretariato delle Nazioni Unite. Tuttavia, non sostengono l’idea di un’agenzia di governance internazionale a pieno titolo, come suggerito da Antonio Guterres, sul modello dell’Agenzia internazionale per l’energia atomica (AIEA). Anche se il loro mandato chiede loro di esplorare questa possibilità, “non raccomandiamo di istituire una tale agenzia in questa fase”.
Pur osservando che stilare un elenco esaustivo dei rischi è una “causa persa” in un settore in rapidissimo sviluppo di cui nessuno può prevedere l’evoluzione, elencano alcuni dei pericoli individuati: disinformazione che minaccia la democrazia, deepfakes più personali (in particolare a sfondo sessuale), violazioni dei diritti umani, armi autonome, uso da parte di gruppi criminali o terroristici, ecc.
“Data la velocità, l’autonomia e l’opacità dei sistemi di IA, aspettare che una minaccia emerga potrebbe significare che è già troppo tardi per rispondere”, ammettono, affidandosi a una costante valutazione scientifica e a scambi politici per garantire che “il mondo non venga colto di sorpresa“.