0 risultati
video suggerito
video suggerito
21 Settembre 2023
16:29

Intelligenza artificiale, i timori dell’Unione Europea

Nelle parole di Ursula von der Leyen, durante il suo ultimo discorso sullo Stato dell'Unione, emerge un'attenzione particolare ai rischi connessi all'intelligenza artificiale.

11 condivisioni
Intelligenza artificiale, i timori dell’Unione Europea
Immagine

Come evidenziato dalle ultime riunioni del Parlamento Europeo i temi di digitalizzazione e gestione dell'intelligenza artificiale risultano centrali nei piani dell'UE.
L'ultimo incontro non ha fatto eccezione: durante l'appuntamento annuale sullo Stato dell'Unione 2023, la presidente della Commissione Europea Ursula von der Leyen ha fatto il punto sulle sfide derivanti dal rapido sviluppo della digitalizzazione e in particolare del mondo dell'intelligenza artificiale.

I timori dell'UE legati all'uso dell'intelligenza artificiale

Ursula von der Leyen si è detta consapevole dell'imporanza del digitale per agevolare la vita delle imprese e delle persone. A tal proposito si è scelto di superare l'obiettivo del 20% di investimenti in progetti digitali.

Dopo aver sottolineato l'importanza della tecnologia digitale e dello strumento di internet per la comunicazione tra le persone e la condivisione di conoscenze, la Presidente ha voluto sottolineare alcune preoccupazioni che affliggono il board europeo. In particolare, von der Meyer ha espresso preoccupazioni riguardo l'erroneo utilizzo di internet per la diffusione di materiale e contenuti falsi o nocivi; successivamente ha parlato dei rischi derivanti dallo sviluppo repentino di applicazioni basate su AI, affermando:

Centinaia di sviluppatori di intelligenza artificiale, accademici ed esperti di primo piano ci hanno recentemente ammonito con queste parole: «Ridurre il rischio di estinzione in conseguenza dell'intelligenza artificiale dovrebbe essere una priorità globale come lo è per altre minacce per l'intera società quali le pandemie e la guerra nucleare». L'intelligenza artificiale è una tecnologia generica, accessibile, potente e adattabile per un'ampia gamma di impieghi, civili e militari. Si sta evolvendo più rapidamente di quanto immaginassero i suoi stessi creatori. Abbiamo opportunità limitate per indirizzare questa tecnologia in modo responsabile.

Nel corso dell'intervento sul digitale e sull'intelligenza artificiale, von der Leyen ha inoltre sottolineato:

Credo che l'Europa, insieme con i suoi partner, debba indicare la via per un nuovo quadro globale dell'intelligenza artificiale, fondato su tre pilastri: misure protettive, governance e guida dell'innovazione.

Immagine

I rischi sull'uso non responsabile dell'AI

Questi i maggiori rischi che si profilano all'orizzonte riguardo un uso non responsabile dell'intelligenza artificiale.

  1. Abuso. L'AI può essere usata per risolvere questioni che non è adatta ad affrontare, come le complesse questioni sociali che siamo collettivamente chiamati ad affrontare.
  2. Responsabilità. Per esempio, se un veicolo a guida autonoma crea un incidente stradale, di chi è la responsabilità? Di chi ha costruito l'auto o di chi ha programmato la AI che la guidava?
  3. Diritti. L'uso della AI può portare a decisioni non eque che riflettono i bias (magari inconsci) di chi l'ha sviluppata; può anche costituire un rischio per la privacy vista la sua capacità di aggregare dati e informazioni.

Le norme proposte dall'UE per regolamentare al meglio l'AI

Durante lo State of the Union si è quindi sottolineato, nuovamente, come l'Unione ritenga l'intelligenza artificiale uno strumento potenzialmente pericoloso laddove non venga correttamente normato e controllato. Ciò era già emerso dopo l'approvazione del cosiddetto AI Act mediante il quale l'Unione Europea predisponeva regole ferree riguardo gli obblighi da rispettare per qualsiasi operatore o fornitore che operi in materia di intelligenza artificiale.

Con l'AI Act sono state definite quattro categorie di rischio utili a classificare le applicazioni basate su algoritmi di intelligenza artificiale. Le categorie vengono associate a degli obblighi, da parte dei fornitori, tanto più stringenti quanto importante il livello di rischio riscontrato. Inoltre la categoria di rischio dovrà essere rivalutata ogni qual volta l'applicazione subisca degli aggiornamenti cospicui.

risk pyramid ai act

Sebbene già oggi esista una legislazione che tutela gli utenti nell'utilizzo delle applicazioni sopracitate e ne garantisce un certo grado di protezione, l'Unione Europea si propone di migliorare tale livello di sicurezza introducendo norme aggiuntive ad hoc. Tra quelle proposte vi è:

  1. affrontare i rischi creati specificamente dalle applicazioni di intelligenza artificiale;
  2. proporre un elenco di applicazioni ad alto rischio;
  3. stabilire requisiti chiari per i sistemi di AI per le applicazioni ad alto rischio;
  4. definire obblighi specifici per gli utenti e i fornitori di applicazioni ad alto rischio;
  5. proporre una valutazione della conformità prima che il sistema di IA sia messo in servizio o immesso sul mercato;
  6. proporre l’applicazione delle norme dopo l’immissione sul mercato di tale sistema di IA;
  7. proporre una struttura di governance a livello europeo e nazionale.

Una preoccupazione non solo europea

Le riflessioni dell'UE si accodano a quelle di altri esperti nel mondo dello sviluppo software e dell'intelligenza artificiale. Già diversi mesi fa, infatti, un gruppo composto da circa mille esperti aveva stilato una lettera aperta dal titolo Pause Giant AI Experiments: An Open Letter. Firmata a oggi da oltre 33.000 persone, la lettera propone di sospendere temporaneamente lo sviluppo dell'intelligenza artificiale al fine di migliorare le normative e le regolamentazioni che riguardano l'intelligenza artificiale, per evitare che questa possa  migliorare troppo rapidamente e uscire dal controllo dei vari Paesi. Nella lettera si legge:

Chiediamo pertanto a tutti i laboratori di intelligenza artificiale di sospendere immediatamente per almeno 6 mesi l'addestramento dei sistemi di intelligenza artificiale più potenti di GPT-4. Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave. Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria. I laboratori di intelligenza artificiale e gli esperti indipendenti dovrebbero sfruttare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo avanzati di intelligenza artificiale che sono rigorosamente controllati e supervisionati da esperti esterni indipendenti.

Immagine

Non solo minacce: il potenziale dell'AI secondo l'Unione Europea

Nonostante l'alto livello di attenzione sui potenziali rischi delle applicazioni basate su intelligenza artificiale, l'Unione Europea vede in quest'ultima anche come una risorsa per migliorare l'efficienza e la vita dei cittadini europei.

Secondo l'UE, questo strumento può contribuire a risolvere molte sfide sociali nel supportare previsioni o decisioni o consentendo lo sviluppo di macchinari e robot che lavorino in situazioni di rischio al posto degli operatori umani. A riguardo, il portavoce del Parlamento Europeo Jaume Duch Guillot afferma:

L’intelligenza artificiale può consentire lo sviluppo di una nuova generazione di prodotti e servizi, anche in settori in cui le aziende europee sono già in una posizione di forza come l’economia circolare, l’agricoltura, la sanità, la moda e il turismo. Può infatti offrire percorsi di vendita più fluidi e ottimizzati, migliorare la manutenzione dei macchinari, aumentare sia la produzione che la qualità, migliorare il servizio al cliente e risparmiare energia.

Sfondo autopromo
Cosa stai cercando?
api url views