Visitors walk past a stand with AI (artificial intelligence) security cameras using facial recognition technology at the 14th China International Exhibition on Public Safety and Security at the China International Exhibition Center in Beijing on October 24, 2018. (Photo by NICOLAS ASFOURI / AFP)
La prima legislazione al mondo sull’intelligenza artificiale è ormai quasi pronta per l’entrata in vigore. Con un via libera a larghissima maggioranza, la sessione plenaria del Parlamento Europeo ha dato il proprio consenso all’accordo raggiunto con i negoziatori del Consiglio dell’Ue al nuovo Regolamento sull’intelligenza artificiale e ora si attende solo l’approvazione dei 27 ministri Ue per vedere l’Atto Ue finalmente applicato su tutto il territorio dell’Unione. “Abbiamo incluso nel testo finale la parte sulla trasparenza e la sicurezza dei modelli più potenti e gli obiettivi ambientali, riflette molto le priorità del Parlamento Europeo“, ha rivendicato il capo-delegazione del Partito Democratico e co-relatore per l’Eurocamera sull’Atto Ue sul’Ia, Brando Benifei, dopo il semaforo verde dagli eurodeputati con 523 voti a favore, 46 contrari e 49 astenuti.
Il Regolamento Ue prevede un livello orizzontale di protezione degli utenti, con una scala di rischio per regolamentare le applicazioni di intelligenza artificiale su quattro livelli: minimo, limitato, alto e inaccettabile. I sistemi che presentano un rischio limitato saranno soggetti a obblighi di trasparenza molto leggeri, come la divulgazione del fatto che il contenuto è stato generato dall’Ia. Per quelli ad alto rischio è prevista una valutazione dell’impatto sui diritti fondamentali prima dell’immissione sul mercato, compresi l’obbligo a registrarsi nella banca dati Ue apposita e la definizione di requisiti sui dati e la documentazione tecnica da presentare per dimostrare la conformità dei prodotti.
La nuova legislazione pone invece a livello inaccettabile – e perciò vieta – sistemi di manipolazione cognitiva del comportamento, la raccolta non mirata di immagini facciali da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale, il riconoscimento delle emozioni sul posto di lavoro e negli istituti scolastici, l’assegnazione di un ‘punteggio sociale’ da parte dei governi, la categorizzazione biometrica per dedurre dati sensibili (convinzioni politiche, religiose, filosofiche, orientamento sessuale) o le convinzioni religiose, e alcuni casi di polizia predittiva per gli individui.
Per quanto riguarda il lavoro immediato – non appena arriverà l’ok finale dai 27 ministri Ue e la pubblicazione in Gazzetta Ufficiale dell’Ue – “dobbiamo accompagnare le aziende e le istituzioni, perché all’inizio il Regolamento non sarà subito obbligatorio“, ha ricordato il co-relatore Benifei. L’Atto Ue sarà pienamente applicabile 24 mesi dopo la sua entrata in vigore, fatta eccezione per i divieti di pratiche proibite (dopo 6 mesi), i codici di condotta (dopo 9 mesi), le norme generali sull’Ia compresa la governance (dopo 12 mesi) e gli obblighi per i sistemi ad alto rischio (dopo 36 mesi). Nel frattempo, in vista del potenziale impatto delle nuove tecnologie sulle elezioni europee di giugno 2024 e considerati i tempi di entrata in vigore del nuovo Regolamento, è stato lanciato a metà novembre 2023 il Patto Ue sull’intelligenza artificiale per anticiparne volontariamente i requisiti.
Tra le nuove disposizioni già in atto c’è quella che ha istituito l’Ufficio ad hoc sull’Ia all’interno della Commissione Europea per supervisionare i sistemi di intelligenza artificiale per scopi generali integrati in un altro sistema ad alto rischio, affiancato da un forum consultivo per le parti interessate (rappresentanti di industrie, Pmi, start-up, società civile e del mondo accademico). Per tenere conto dell’ampia gamma di compiti che i sistemi di intelligenza artificiale possono svolgere – generazione di video, testi, immagini, la conversazione in linguaggio laterale, il calcolo o la generazione di codice informatico – e della rapida espansione delle loro capacità, i modelli di fondazione ‘ad alto impatto’ (un tipo di intelligenza artificiale generativa addestrata su un ampio spettro di dati generalizzati e senza etichette) dovranno rispettare una serie di obblighi di trasparenza prima di essere immessi sul mercato.
Con 122 voti favorevoli, 63 astenuti e 7 contrari, la Camera ha approvato il ddl…
Con 122 voti favorevoli, 63 astenuti e 7 contrari, la Camera ha approvato il ddl…
Plenitude e ACEA S.p.A. hanno firmato un accordo vincolante per l’acquisizione da parte di Plenitude…
Giorgia Meloni continua a puntare tutto sul Mediterraneo, vola in Bahrein e propone al Consiglio…
“Chiediamo che la presidente del Consiglio porti il tavolo a Palazzo Chigi e riconvochi i…
“Chiediamo che la presidente del Consiglio porti il tavolo a Palazzo Chigi e riconvochi i…