Intelligenza artificiale, sì del Parlamento Ue a nuovo regolamento. “Primi al mondo”
La nuova legislazione vieta sistemi di manipolazione cognitiva del comportamento, la raccolta non mirata di immagini facciali da Internet o da filmati di telecamere a circuito chiuso, il riconoscimento delle emozioni sul posto di lavoro e negli istituti scolastici.
La prima legislazione al mondo sull’intelligenza artificiale è ormai quasi pronta per l’entrata in vigore. Con un via libera a larghissima maggioranza, la sessione plenaria del Parlamento Europeo ha dato il proprio consenso all’accordo raggiunto con i negoziatori del Consiglio dell’Ue al nuovo Regolamento sull’intelligenza artificiale e ora si attende solo l’approvazione dei 27 ministri Ue per vedere l’Atto Ue finalmente applicato su tutto il territorio dell’Unione. “Abbiamo incluso nel testo finale la parte sulla trasparenza e la sicurezza dei modelli più potenti e gli obiettivi ambientali, riflette molto le priorità del Parlamento Europeo“, ha rivendicato il capo-delegazione del Partito Democratico e co-relatore per l’Eurocamera sull’Atto Ue sul’Ia, Brando Benifei, dopo il semaforo verde dagli eurodeputati con 523 voti a favore, 46 contrari e 49 astenuti.
Il Regolamento Ue prevede un livello orizzontale di protezione degli utenti, con una scala di rischio per regolamentare le applicazioni di intelligenza artificiale su quattro livelli: minimo, limitato, alto e inaccettabile. I sistemi che presentano un rischio limitato saranno soggetti a obblighi di trasparenza molto leggeri, come la divulgazione del fatto che il contenuto è stato generato dall’Ia. Per quelli ad alto rischio è prevista una valutazione dell’impatto sui diritti fondamentali prima dell’immissione sul mercato, compresi l’obbligo a registrarsi nella banca dati Ue apposita e la definizione di requisiti sui dati e la documentazione tecnica da presentare per dimostrare la conformità dei prodotti.
La nuova legislazione pone invece a livello inaccettabile – e perciò vieta – sistemi di manipolazione cognitiva del comportamento, la raccolta non mirata di immagini facciali da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale, il riconoscimento delle emozioni sul posto di lavoro e negli istituti scolastici, l’assegnazione di un ‘punteggio sociale’ da parte dei governi, la categorizzazione biometrica per dedurre dati sensibili (convinzioni politiche, religiose, filosofiche, orientamento sessuale) o le convinzioni religiose, e alcuni casi di polizia predittiva per gli individui.
Per quanto riguarda il lavoro immediato – non appena arriverà l’ok finale dai 27 ministri Ue e la pubblicazione in Gazzetta Ufficiale dell’Ue – “dobbiamo accompagnare le aziende e le istituzioni, perché all’inizio il Regolamento non sarà subito obbligatorio“, ha ricordato il co-relatore Benifei. L’Atto Ue sarà pienamente applicabile 24 mesi dopo la sua entrata in vigore, fatta eccezione per i divieti di pratiche proibite (dopo 6 mesi), i codici di condotta (dopo 9 mesi), le norme generali sull’Ia compresa la governance (dopo 12 mesi) e gli obblighi per i sistemi ad alto rischio (dopo 36 mesi). Nel frattempo, in vista del potenziale impatto delle nuove tecnologie sulle elezioni europee di giugno 2024 e considerati i tempi di entrata in vigore del nuovo Regolamento, è stato lanciato a metà novembre 2023 il Patto Ue sull’intelligenza artificiale per anticiparne volontariamente i requisiti.
Tra le nuove disposizioni già in atto c’è quella che ha istituito l’Ufficio ad hoc sull’Ia all’interno della Commissione Europea per supervisionare i sistemi di intelligenza artificiale per scopi generali integrati in un altro sistema ad alto rischio, affiancato da un forum consultivo per le parti interessate (rappresentanti di industrie, Pmi, start-up, società civile e del mondo accademico). Per tenere conto dell’ampia gamma di compiti che i sistemi di intelligenza artificiale possono svolgere – generazione di video, testi, immagini, la conversazione in linguaggio laterale, il calcolo o la generazione di codice informatico – e della rapida espansione delle loro capacità, i modelli di fondazione ‘ad alto impatto’ (un tipo di intelligenza artificiale generativa addestrata su un ampio spettro di dati generalizzati e senza etichette) dovranno rispettare una serie di obblighi di trasparenza prima di essere immessi sul mercato.