Il 21 maggio 2024, il Consiglio dell’Unione europea ha approvato una legge innovativa volta ad armonizzare le norme sull'intelligenza artificiale, la cosiddetta legge sull'intelligenza artificiale che segue un approccio basato sul rischio.
Obiettivi
La nuova legge mira a promuovere lo sviluppo e l’adozione di sistemi di IA sicuri e affidabili nel mercato unico dell’UE da parte di attori sia privati che pubblici. Allo stesso tempo, mira a garantire il rispetto dei diritti fondamentali dei cittadini dell’UE e a stimolare gli investimenti e l’innovazione nel campo dell’intelligenza artificiale in Europa. La legge sull’IA si applica solo ad ambiti soggetti al diritto dell’UE e prevede esenzioni, ad esempio, per i sistemi utilizzati esclusivamente per scopi militari e di difesa, nonché per scopi di ricerca .
Classificazione dei sistemi di IA come pratiche di IA ad alto rischio e vietate
La nuova legge classifica diversi tipi di intelligenza artificiale in base al rischio. I sistemi di IA che presentano solo un rischio limitato sarebbero soggetti a obblighi di trasparenza molto leggeri, mentre i sistemi di IA ad alto rischio sarebbero autorizzati, ma soggetti a una serie di requisiti e obblighi per ottenere l’accesso al mercato dell’UE. I sistemi di intelligenza artificiale come, ad esempio, la manipolazione cognitivo comportamentale e il punteggio sociale saranno banditi dall’UE perché il loro rischio è ritenuto inaccettabile. La legge vieta inoltre l’uso dell’intelligenza artificiale per la polizia predittiva basata sulla profilazione e sistemi che utilizzano dati biometrici per classificare le persone in base a categorie specifiche come razza, religione o orientamento sessuale.
Governance
Per garantire una corretta applicazione, vengono istituiti diversi organi di governo:
Trasparenza e tutela dei diritti fondamentali
Prima che un sistema di IA ad alto rischio venga implementato da alcuni enti che forniscono servizi pubblici, sarà necessario valutarne l’impatto sui diritti fondamentali. Il regolamento prevede inoltre una maggiore trasparenza per quanto riguarda lo sviluppo e l’uso di sistemi di IA ad alto rischio. I sistemi di IA ad alto rischio, così come alcuni utenti di un sistema di IA ad alto rischio che sono enti pubblici, dovranno essere registrati nella banca dati dell'UE per i sistemi di IA ad alto rischio e gli utenti di un sistema di riconoscimento delle emozioni dovranno informare i naturali persone quando sono esposte a tale sistema.
Sanzioni
Le sanzioni per le violazioni della legge sull'AI sono fissate in percentuale del fatturato annuo globale dell'azienda colpevole nell'anno finanziario precedente o in un importo predeterminato, a seconda di quale sia il più elevato. Le PMI e le start-up sono soggette a sanzioni amministrative proporzionali.
Entrata in vigore
Dopo essere stato firmato dai presidenti del Parlamento europeo e del Consiglio, l'atto legislativo sarà pubblicato nei prossimi giorni sulla Gazzetta Ufficiale dell'Ue ed entrerà in vigore venti giorni dopo tale pubblicazione. Il nuovo regolamento si applicherà due anni dopo la sua entrata in vigore, con alcune eccezioni per disposizioni specifiche.
Con riserva di ulteriori futuri approfondimenti.