0 risultati
video suggerito
video suggerito
6 Giugno 2024
20:30

«L’AI porterà all’estinzione umana»: facciamo chiarezza sull’allarme lanciato da 13 esperti

Un gruppo di ex dipendenti di OpenAI e Google DeepMind ha mosso accuse importanti contro le aziende che lavorano nello sviluppo di sistemi AI, affermando che questa tecnologia potrebbe costituire una seria minaccia per l'intera umanità.

302 condivisioni
«L’AI porterà all’estinzione umana»: facciamo chiarezza sull’allarme lanciato da 13 esperti
openAI rischi Ai

Una lettera aperta sul web scritta da un gruppo formato da 13 esperti di intelligenza artificiale – tra cui 7 ex dipendenti OpenAI (di cui 2 anonimi), 4 attuali dipendenti OpenAI (che hanno preferito rimanere tutti anonimi) e 2 scienziati di Google DeepMind (uno dei quali fa ancora parte di quest'ultima) – sta facendo discutere (e non poco) il Web. Il gruppo di esperti ha indirizzato il messaggio alle aziende che lavorano nello sviluppo dell'AI sostenendo che questa tecnologia, per quanto utile, in futuro potrebbe portare alla possibile estinzione umana. In particolare, la lettera pone l'accento sulla scarsa attenzione alla sicurezza e sulla cultura della segretezza di cui sono responsabili le big tech dell'AI.

Tra i firmatari della lettera ci sono esperti del calibro di William Saunders, Carroll Wainwright e Daniel Ziegler (tutti ex dipendenti OpenAI). Il messaggio ha inoltre ricevuto il beneplacito di Stuart Russell, uno dei massimi esperti di sicurezza dell'intelligenza artificiale, e di Geoffrey Hinton e Yoshua Bengio, entrambi vincitori nel 2018 del premio Turing (un importante riconoscimento per chi lavora nell'ambito dell'AI, considerato una sorta di “premio Nobel dell'informatica”).

L'AI potrebbe portare all'estinzione umana? Cosa affermano gli ex dipendenti OpenAI e Google DeepMind

Perché mai l'AI potrebbe portare all'estinzione umana? Stando agli esperti che hanno scritto la lettera in questione, i motivi sono molteplici. Tra le altre cose nel documento si legge:

Questi rischi vanno dall'ulteriore rafforzamento delle disuguaglianze esistenti, alla manipolazione e alla disinformazione, fino alla perdita di controllo dei sistemi autonomi di AI che potrebbero portare all'estinzione umana. Le stesse aziende di AI hanno riconosciuto questi rischi, così come i governi di tutto il mondo e altri esperti di AI.

Proseguendo la lettura della lettera, le accuse diventano via via sempre più pesanti. A un certo punto infatti si apprende quanto segue:

Le aziende di IA possiedono informazioni sostanziali non pubbliche sulle capacità e sui limiti dei loro sistemi, sull'adeguatezza delle loro misure di protezione e sui livelli di rischio di diversi tipi di danni. Tuttavia, attualmente hanno solo un debole obbligo di condividere alcune di queste informazioni con i governi e nessuna con la società civile. Non crediamo che si possa fare affidamento sul fatto che tutti li condividano volontariamente. Finché non ci sarà un'efficace supervisione governativa su queste aziende, gli attuali e gli ex dipendenti sono tra le poche persone che possono ritenerle responsabili di fronte al pubblico. Tuttavia, ampi accordi di riservatezza ci impediscono di esprimere le nostre preoccupazioni, tranne che alle stesse aziende che potrebbero non affrontare questi problemi. […] Alcuni di noi temono ragionevolmente varie forme di ritorsione, vista la storia di casi simili in tutto il settore. Non siamo i primi a incontrare o a parlare di questi problemi.

Ci sono possibili soluzioni al problema? Le risposte del gruppo di esperti AI

Dopo le pesanti accuse, gli esperti hanno elencato anche alcune possibili soluzioni racchiuse nei quattro punti che riassumiamo di seguito.

  1. Le aziende che lavorano nell'ambito dell'intelligenza artificiale non dovrebbero incoraggiare accordi che vietano di muovere critiche nei loro confronti né dovrebbero vendicarsi nei confronti di dipendenti ed ex dipendenti (ad esempio ostacolando i vantaggi economici acquisiti da questi) qualora dovessero muoversi in tal senso.
  2. Le aziende sviluppatrici di sistemi AI dovrebbero istituire un processo anonimo per permettere ai dipendenti presenti e passati di comunicare i loro timori al Consiglio di Amministrazione, agli enti regolatori e a organizzazioni indipendenti.
  3. Le aziende dovrebbero favorire una cultura di apertura alla critica.
  4. Le aziende non dovrebbero perpetrare ritorsioni contro dipendenti ed ex dipendenti che condividono pubblicamente informazioni riservate per timori sulla sicurezza, anche nel momento in cui le segnalazioni non dovessero portare ai risultati sperati.

Difficile dire se aziende del calibro di OpenAI, Google DeepMind e Anthropic accoglieranno favorevolmente i princìpi esposti nella lettera aperta scritta dagli esperti di AI, viste le possibili ripercussioni negative che questo potrebbe avere sul loro business. Di sicuro una regolamentazione a tecnologie così impattanti sulla vita umana è necessaria per evitare la proliferazione di problemi etici e pratici.

La lettera degli ex dipendenti di OpenAI e Google DeepMind

Se volete approfondire, qui potete trovare il testo integrale della lettera aperta pubblicata dal gruppo di 13 esperti di intelligenza artificiale.

Sfondo autopromo
Cosa stai cercando?
api url views