19 Giugno 2023
11:48

AI Act, l’UE regolamenta le applicazioni basate su Intelligenza Artificiale: cosa dice la legge

L'UE approva con ampia maggioranza la posizione negoziale sulla legge sull'Intelligenza Artificiale. Gli applicativi verranno classificati per categorie di rischio e dovranno sottostare a rigorosi controlli.

Entra nel nuovo canale WhatsApp di Geopop
217 condivisioni
AI Act, l’UE regolamenta le applicazioni basate su Intelligenza Artificiale: cosa dice la legge
AI Act unione europea

Il 14 giugno il Parlamento Europeo ha approvato, con 499 voti favorevoli, 28 contrari e 93 astenuti, la posizione negoziale sulla legge sull'Intelligenza Artificiale. Grazie all'approvazione da parte del Parlamento di Strasburgo, l'UE potrà essere la prima ad avere una norma che regolamenti puntualmente l'intelligenza artificiale generativa (Generative AI). L'approvazione finale da parte dell'UE dovrebbe arrivare entro fine anno ed il tutto entrerà in vigore dal 2024.

Cosa dice la legge dell'UE sui livelli di rischio dell'AI

La regolamentazione prende in considerazione quelli che sono gli obblighi e i livelli di rischio di ciascun operatore o fornitore che operi in materia di intelligenza artificiale.
Il livello di rischio massimo, stabilito dall'UE, è il "rischio inaccettabile", fanno parte di questa categoria quelle applicazioni che possano manipolare i comportamenti di persone o gruppi vulnerabili in materia di sicurezza, salute e altre questioni di interesse pubblico.

Categorie considerate vulnerabili sono ad esempio quelle dei bambini, pertanto tale normativa verrà applicata su giocattoli parlanti mossi da Intelligenza Artificiale, un altro esempio sono i software che implementano sistemi di classificazione delle persone in base al comportamento o altre caratteristiche.

I sistemi rientranti in questa categoria, definita dall'UE come di seguito, sarà vietata.

Tutti i sistemi di intelligenza artificiale considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone saranno vietati, dal punteggio sociale dei governi ai giocattoli che utilizzano l'assistenza vocale che incoraggia comportamenti pericolosi.

risk pyramid ai act

A seguire la categoria delle applicazioni a rischio inaccettabile vi sono le applicazioni ad "alto rischio". In questa categoria rientrano le applicazioni utilizzate in strutture critiche e/o che eroghino servizi fondamentali per i cittadini (pubblici uffici, trasporti, salute ecc…). I sistemi di IA che rientrano in questa categoria saranno soggetti a severi obblighi prima di poter essere immessi sul mercato.

Seguono poi le applicazioni a rischio minore classificate come "rischio limitato" e "rischio minimo o nullo".

Novità sul riconoscimento biometrico

Nell'ultimo testo vagliato dal Parlamento Europeo sono stati introdotti dei divieti aggiuntivi per:

  1. sistemi di identificazione biometrica remota in tempo reale e a posteriori in aree pubbliche;
  2. sistemi di categorizzazione biometrica basati su genere, razza, etnia, cittadinanza, religione, credo politico;
  3. sistemi di polizia predittiva;
  4. sistemi di riconoscimento delle emozioni;
  5. "estrazione non mirata" di dati biometrici da internet o da video di telecamere a circuito chiuso.

Inoltre è stato ipotizzato un iter approvativo per le applicazioni basate su AI prevedendo che, in caso di cambiamenti sostanziali all'applicativo, esso venga vagliato nuovamente per valutare i possibili rischi introdotti, verrà inoltre valutato nuovamente che l'applicativo rispetti tutti i parametri di conformità legale.

AI Lifecycle - AI Act
Sfondo autopromo
Cosa stai cercando?
api url views