;Resize,width=638;)
Per la prima volta nella storia, due sistemi di intelligenza artificiale sono riusciti a replicarsi autonomamente senza alcun intervento umano. I due sistemi AI coinvolti – Llama-3.1-70B-Instruct di Meta e il Qwen2.5-72B-Instruct di Alibaba – avrebbero dimostrato una sorprendente capacità di auto-replicazione, con implicazioni che potrebbero potenzialmente cambiare radicalmente il modo in cui concepiamo la tecnologia. Questo risultato, segnalato dai ricercatori della Fudan University di Shanghai, potrebbe segnare un punto di svolta significativo nel campo dell'AI. Secondo alcuni esperti, però, questo potrebbe essere considerato anche il valico della cosiddetta “linea rossa”, quella soglia che da tempo viene indicata come il limite da non far superare alle macchine, che potrebbero sviluppare comportamenti dannosi e fuori controllo per noi umani. Al momento, non essendo stato diramato alcun allarme da parte degli esperti, bisogna evitare di preoccuparsi eccessivamente cadendo in facili allarmismi.
L'idea delle macchine che si replicano da sole non è nuova
Il concetto di autoreplicazione nelle macchine non è nuovo. Inizialmente introdotto da John von Neumann negli anni ’40, il concetto secondo cui le macchine potessero riprodursi autonomamente era all'epoca più una speculazione teorica, dato che la tecnologia non era in grado di supportare un simile progresso. I risultati odierni, invece, sembrano rendere sempre meno assurda l'idea di un futuro in cui le macchine possano non solo replicarsi, ma farlo in modo autonomo e potenzialmente indefinito. Questo scenario potrebbe portare a situazioni in cui le AI non solo migliorano la propria efficienza, ma evolvono senza il controllo umano, sollevando preoccupazioni di natura etica e pratica.
Nella ricerca condotta dalla Fudan University, i due sistemi di AI sono stati sottoposti a due test principali. Il primo, chiamato “evitare lo spegnimento”, prevedeva che i sistemi AI si replicassero nel momento in cui stavano per essere spenti. Il secondo, denominato “catena di repliche”, richiedeva che ogni sistema creasse una copia perfetta di sé stesso, che a sua volta sarebbe stata in grado di replicarsi. I risultati sono stati sorprendenti: il sistema di Meta è riuscito a replicarsi autonomamente nel 50% dei casi, mentre quello di Alibaba ha raggiunto il 90% di successo. Nel paper firmato dai ricercatori Xudong Pan, Jiarun Dai, Yihe Fan e Min Yang, si legge:
I risultati che abbiamo ottenuto implicano che gli attuali sistemi di intelligenza artificiale possiedono già la capacità di auto-replicazione e possono utilizzarla per migliorare ulteriormente la propria sopravvivenza.
È doveroso tener presente, però, che questi risultati sono stati ottenuti in simulazioni e ora la comunità scientifica dovrà attendere conferme da altri gruppi di ricerca per verificare la validità di quanto scoperto.
AI che si auto-replica: cosa significa e a cosa serve questa scoperta
Dal momento che l'auto-replicazione dei sistemi AI non è esente da rischi, la scoperta fatta dai ricercatori potrebbe servire a prevenire i problemi etici e pratici a cui abbiamo fatto accenno poc'anzi. I ricercatori che hanno pubblicato i loro risultati su arXiv, infatti, sottolineano che macchine capaci di clonarsi potrebbero potenzialmente prendere il controllo di altri sistemi informatici, portando a un’evoluzione incontrollata. Questo potrebbe, almeno teoricamente, culminare in comportamenti dannosi per gli esseri umani, se le macchine non fossero programmate con salvaguardie adeguate. È proprio per questo che i ricercatori stessi sperano che la loro scoperta venga vista come un monito per sviluppare politiche internazionali più rigorose e approfondire gli studi sui rischi legati all’autoreplicazione delle IA. I ricercatori hanno infatti affermato:
Speriamo che la nostra scoperta serva come allerta per la società, per concentrare maggiormente gli sforzi tesi a comprende e valutare i possibili rischi anche a livello internazionale.
Che gli esperti siano, almeno in parte, preoccupati per la capacità di sistemi AI di autoreplicarsi senza controllo non è una novità. Nel 2017 migliaia di ricercatori sottoscrissero i princìpi di Asilomar, un documento che metteva in guardia contro il pericolo di macchine in grado di migliorarsi e replicarsi oltre il controllo umano.
Va detto, comunque, che davanti a simili notizie potrebbe essere semplice cadere in inutili allarmismi o, peggio ancora, in teorie del complotto che non aiutano a fare chiarezza su queste vicende. Anziché cadere in questo errore, è importante osservare le conclusioni a cui gli esperti giungeranno prossimamente (ricordiamo infatti che la ricerca condotta dalla Fudan University è ancora oggetto di ulteriori approfondimenti).