Entrano in vigore oggi, 2 agosto, gli obblighi sui modelli di Intelligenza Artificiale generativa previsti dalla legge europea sull’intelligenza artificiale che, prima al mondo, mira a promuovere lo sviluppo, l’immissione nel mercato e l’impiego responsabile dell’intelligenza artificiale nell’Ue. Le norme che entreranno in vigore, e che puntano a garantire “maggiore trasparenza, sicurezza e responsabilità”, riguardano i fornitori di modelli di IA per finalità generali (GpAI) sul mercato, in particolare quelli che presentano rischi sistemici, come il modello di intelligenza artificiale più avanzato GPT-4. E si dividono in due categorie in base al livello di rischio posto dai sistemi.
Prima di immettere nel mercato i loro prodotti, tutti i fornitori di modelli GpAI dovranno redigere la documentazione tecnica, attuare una politica sul copyright e pubblicare un riepilogo del contenuto formativo del modello. I fornitori di modelli GpAI con rischio sistemico – cioè rischi per i diritti fondamentali, la sicurezza e la potenziale perdita di controllo sul modello – dovranno dare notifica alla Commissione europea dei modelli rischiosi, fare una valutazione e mitigazione del rischio, segnalare gli incidenti, predisporre la cybersicurezza.
Di fatto, la richiesta è quella di informazioni più chiare sulle modalità di addestramento dei modelli di IA, una migliore applicazione delle tutele del diritto d’autore e uno sviluppo dell’IA più responsabile. Per sintetizzare, dunque, da domani, i fornitori dovranno rispettare gli obblighi di trasparenza e di copyright quando immettono modelli GpAI sul mercato dell’Ue. I modelli già immessi sul mercato prima del 2 agosto 2025 dovranno garantire la conformità entro il 2 agosto 2027. I fornitori dei modelli più avanzati o di maggiore impatto che presentano rischi sistemici, ovvero quelli che superano 10^25 FLOP, dovranno adempiere a obblighi aggiuntivi, come la notifica alla Commissione e la garanzia della sicurezza del modello.
Entrato in vigore il 2 agosto 2024, la legge europea sull’IA ha una attuazione a tappe. La maggior parte delle norme entrerà in vigore il 2 agosto 2026. Ma è già in vigore, dal 2 febbraio scorso, il divieto di sistemi di intelligenza artificiale che presentano rischi inaccettabili: come manipolazione cognitivo-comportamentale di persone o specifici gruppi vulnerabili (ad esempio giocattoli attivati vocalmente che incoraggiano comportamenti pericolosi nei bambini); l’Intelligenza artificiale con punteggio sociale (cioè la classificazione delle persone in base al comportamento, allo stato socioeconomico o alle caratteristiche personali); l’identificazione biometrica e categorizzazione delle persone; i sistemi di identificazione biometrica in tempo reale e da remoto, come il riconoscimento facciale negli spazi pubblici. Per assistere i fornitori nel contesto degli obblighi che entreranno in vigore da domani, la Commissione europea ha pubblicato delle linee guida che chiariscono chi deve rispettare tali obblighi.
I modelli GpAI sono definiti come quelli addestrati con oltre 10^23 FLOP e in grado di generare linguaggio. Inoltre, la Commissione ha pubblicato un modello per aiutare i fornitori a riassumere i dati utilizzati per addestrare i loro modelli. Infine, la Commissione e gli Stati membri hanno inoltre confermato che il Codice di condotta GpAI, elaborato da esperti indipendenti, è uno strumento volontario adeguato per i fornitori di modelli GpAI per dimostrare la conformità alla legge sull’IA. I fornitori che sottoscrivono e aderiscono al Codice beneficeranno di una riduzione degli oneri e di una maggiore certezza del diritto.