Gli eurodeputati siglano l’accordo sulla legge (AI Act) che regola l’intelligenza artificiale

Sauro Arceri
| 4 min read

L’AI Act è una proposta legislativa che mira a regolamentare l’intelligenza artificiale in base al suo potenziale di danno. Il Parlamento europeo si sta avvicinando alla formalizzazione della sua posizione nei riguardi di questa proposta, dopo che i legislatori dell’UE hanno raggiunto un accordo politico giovedì (27 aprile).

Il testo è provvisorio e quindi potrebbe essere ancora soggetto ad alcune modifiche e piccoli aggiustamenti a livello tecnico, prima di essere sottoposto a un voto chiave di commissione che è previsto per l’11 maggio, ma che molto probabilmente avverrà nella sessione plenaria di metà giugno.

“Abbiamo raggiunto un accordo in cui tutti i gruppi dovranno sostenere il compromesso senza la possibilità di presentare emendamenti alternativi”, ha dichiarato un funzionario del Parlamento europeo al media online EURACTIV.

Fino all’ultimo momento, i legislatori dell’Unione Europea hanno negoziato su alcune delle parti più controverse della proposta. Andiamo a vedere più nel dettaglio queste parti.

IA per scopi generali


Il modo in cui trattare i sistemi di IA che non hanno uno scopo specifico è stato un argomento di discussione molto acceso. Gli eurodeputati hanno confermato le precedenti proposte di imporre obblighi più severi ai modelli di fondazione, una sottocategoria dell’IA generica che comprende ChatGPT.

L’unica modifica significativa dell’ultimo minuto, per questa specifica parte, ha riguardato i modelli di IA generativa, i quali dovranno essere progettati e sviluppati nel rispetto del diritto dell’UE e dei diritti fondamentali, compresa la libertà di espressione.

Pratiche proibite

Un altro tema politicamente sensibile è stato quello del tipo di applicazioni di IA da vietare perché considerate un rischio inaccettabile.

Due settimane fa era stata ventilata l’idea di vietare gli strumenti basati sull’IA per il monitoraggio generale delle comunicazioni interpersonali. La proposta è stata abbandonata in seguito all’opposizione del Partito Popolare Europeo (PPE), conservatore.

In cambio, i legislatori di centro-destra hanno dovuto accettare un’estensione del divieto sui software di identificazione biometrica. Inizialmente vietato solo per l’uso in tempo reale, questo software di riconoscimento potrebbe essere utilizzato ex-post solo per reati gravi e con l’approvazione preventiva del giudice.

Il PPE, che ha una forte fazione di forze dell’ordine, è l’unica eccezione parziale all’accordo di non presentare emendamenti alternativi. Il gruppo ha accettato di non presentare voti “chiave” che potrebbero minacciare il suo sostegno all’intero dossier, ma potrebbe comunque tentare di modificare il divieto biometrico ex-post.

Il regolamento sull’IA vieta anche la manipolazione “intenzionale“. Il termine “intenzionale” è stato oggetto di dibattito in quanto l’intenzionalità potrebbe essere difficile da dimostrare, ma è stato comunque mantenuto in quanto gli eurodeputati non volevano gettare una rete troppo larga.

L’uso del software di riconoscimento delle emozioni basato sull’intelligenza artificiale è vietato nei settori dell’applicazione della legge, della gestione delle frontiere, del lavoro e dell’istruzione.

Il divieto di polizia predittiva imposto dai legislatori dell’UE è stato esteso dai reati penali a quelli amministrativi, sulla base dello scandalo olandese degli assegni familiari, che ha visto migliaia di famiglie incriminate erroneamente per frode a causa di un algoritmo di flusso.

Classificazione “ad alto rischio”

La proposta iniziale classificava automaticamente come “ad alto rischio” le soluzioni di IA che rientravano nei casi d’uso e nelle aree critiche elencate nell’Allegato III: identificazione e classificazione biometrica, gestione e funzionamento di infrastrutture critiche, istruzione e formazione professionale, selezione e assunzione di persone fisiche, prestazioni e servizi pubblici e privati, attività di contrasto, gestione della migrazione dell’asilo e del controllo delle frontiere, amministrazione della giustizia e processi democratici.

Il che significava che i fornitori avrebbero dovuto rispettare un regime più severo che comprendeva requisiti sulla gestione del rischio, sulla trasparenza e sulla governance dei dati.

Gli eurodeputati hanno introdotto un livello aggiuntivo, in base al quale un modello di IA che rientra nelle categorie dell’Allegato III sarà considerato “ad alto rischio” solo se presenta un rischio significativo di danno alla salute, alla sicurezza o ai diritti fondamentali.

Il rischio significativo è definito come:

“Un rischio che è significativo come risultato della combinazione della sua gravità, intensità, probabilità di accadimento e durata dei suoi effetti, e della capacità di colpire un individuo, una pluralità di persone o di colpire un particolare gruppo di persone”.

Su richiesta dei Verdi, anche l’intelligenza artificiale utilizzata per gestire infrastrutture critiche come le reti energetiche o i sistemi di gestione dell’acqua verrebbe classificata come ad alto rischio se comporta un grave rischio ambientale.

Inoltre, i legislatori di centro-sinistra hanno ottenuto che i sistemi di raccomandazione delle piattaforme online di grandi dimensioni, come definiti nella legge sui servizi digitali (DSA), siano considerati ad alto rischio.

Rilevare i pregiudizi

Gli eurodeputati hanno incluso ulteriori salvaguardie per il processo con cui i fornitori di modelli di IA ad alto rischio possono elaborare dati sensibili come l’orientamento sessuale o le convinzioni religiose per rilevare i pregiudizi negativi.

In particolare, per poter elaborare questo tipo di dati speciali, i pregiudizi non devono essere rilevabili attraverso l’elaborazione di dati sintetici, anonimizzati, pseudonimizzati o criptati.

Inoltre, la valutazione deve avvenire in un ambiente controllato. I dati sensibili non possono essere trasmessi ad altre parti e devono essere cancellati dopo la valutazione dei pregiudizi. I fornitori devono inoltre documentare i motivi per cui è stato effettuato il trattamento dei dati.

Principi generali

Prima della riunione di mercoledì, l’ufficio dei correlatori ha fatto circolare una proposta di principi generali da applicare a tutti i modelli di IA. Il nuovo articolo non intende creare nuovi obblighi, ma dovrà essere incorporato negli standard tecnici e nei documenti di orientamento.

Questi principi includono l’agenzia e la supervisione umana, la solidità e la sicurezza tecnica, la privacy e la governance dei dati, la trasparenza, il benessere sociale e ambientale, la diversità, la non discriminazione e l’equità.

Sostenibilità dell’IA ad alto rischio

I sistemi di IA ad alto rischio dovranno registrare la loro impronta ambientale e i modelli di fondazione dovranno essere conformi agli standard ambientali europei.

 

Leggi anche:

Segui Cryptonews Italia sui canali social