0 risultati
video suggerito
video suggerito
24 Maggio 2024
15:09

L’intelligenza artificiale può clonare la nostra voce: il nuovo strumento per difendersi

Vista la capacità dell'AI di clonare la voce umana partendo da campioni audio sempre più brevi, è fondamentale lo sviluppo di sistemi che possano consentirci di contrastare i deepfake audio.

119 condivisioni
L’intelligenza artificiale può clonare la nostra voce: il nuovo strumento per difendersi
AI clona voce

L'intelligenza artificiale avanza la sua corsa inarrestabile toccando sempre più settori e migliorando in modo sorprendente le sue capacità. Tra queste c'è quella di riuscire a clonare la voce umana in modo pressoché perfetto. Dal momento che una voce clonata potrebbe essere utilizzata in modo improprio per generare file audio deepfake con cui perpetrare truffe e generare disinformazione, diversi ricercatori stanno pensando a soluzioni che possano mitigare il problema. Tra questi c'è uno strumento, chiamato guarda caso AntiFake, che è stato progettato per rendere la vita più difficile ai cybercriminali che tentano di acquisire dati vocali con cui clonare le voci delle proprie vittime.

Quanto materiale serve all'AI per clonare la voce

Lo sviluppo di strumenti che contrastino la clonazione della voce umana è diventata di fondamentale importanza perché, a differenza di alcuni anni fa, i moderni sistemi AI riescono a clonare la voce partendo da campioni audio di pochissimi secondi. Ne è un esempio lampante lo strumento Voice Engine di OpenAI – l'azienda che sviluppa ChatGPT – recentemente finita nell'occhio del ciclone a causa della presunta clonazione vocale dell'attrice Scarlett Johansson fatta senza permesso, che è in grado di clonare la voce in appena 15 secondi (vista la sua potenziale pericolosità, il tool al momento non è ancora stato rilasciato pubblicamente).

Fino a qualche tempo fa l'intelligenza artificiale riusciva a clonare la voce basandosi su campioni audio piuttosto lunghi (almeno 30 minuti), che dovevano rispettare specifici standard qualitativi ed espressivi per poter consentire all'algoritmo di sintetizzare la voce alla perfezione. Oggi le cose stanno evidentemente in modo diverso, visto che potenzialmente può bastare un semplice vocale WhatsApp e darlo in pasto a un tool AI per copiare la voce di un'altra persona.

Immagine

Quali strumenti esistono per impedire all'AI di clonare la voce

Dal momento che chiunque sia solito mandare messaggi vocali (anche occasionali) o lasciare messaggi registrati in segreteria telefonica ha difatti già fornito materiale più che sufficiente per essere clonato vocalmente, il consiglio di non inviare materiale di questo tipo a nessuno, dunque, non ha molta valenza. E poi diciamocelo: la nostra voce potrebbe essere facilmente registrata a nostra insaputa con un qualsiasi smartphone.

Ecco perché è necessario contrastare la tecnologia con altra tecnologia. È l'unico modo per “combattere ad armi pari”. A proposito di “armi tecnologiche”, quella sviluppata dall'informatico e ingegnere Ning Zhang dell'istituto di ricerca McKelvey School of Engineering della Washington University di St. Louis sembra promettere piuttosto bene. AntiFake, lo strumento che Zhang ha sviluppato e presentato durante una conferenza sulla sicurezza informatica dell'Association for Computing Machinery tenutasi a Copenaghen, in Danimarca, il 27 novembre dell'anno scorso, ha un approccio proattivo rispetto ai metodi convenzionali per individuare i deepfake, che hanno effetto solo quando il danno è ormai già stato fatto.

AntiFake, infatti, utilizza tecniche simili a quelle impiegate dai criminali informatici per la clonazione vocale per proteggere effettivamente le voci dalla pirateria e dalla contraffazione. Nello spiegare come funziona la sua “creatura”, Zhang ha riferito:

Lo strumento utilizza una tecnica di intelligenza artificiale contraddittoria che originariamente faceva parte degli strumenti dei criminali informatici, ma ora la utilizziamo per difenderci da loro. Confondiamo leggermente il segnale audio registrato, lo distorciamo o lo perturbiamo quel tanto che basta affinché suoni ancora bene per gli ascoltatori umani.

Una volta fatto ciò, l'audio rimane dunque di buona qualità per gli ascoltatori umani, ma al tempo stesso lo rende inutilizzabile per addestrare un clone vocale.

AntiFake
Credits: AntiFake.

Chiaramente, AntiFake non è la panacea di tutti i mali. Come sottolinea Ben Zhao dell'University of Chicago, che non è stato coinvolto nello sviluppo di AntiFake, è vero che strumenti di questo tipo possono «alzare il livello e limitare l’attacco a un gruppo più piccolo di individui altamente motivati ​​e dotati di risorse significative» ma è vero anche che, come tutti i sistemi di sicurezza digitale, non fornirà mai una protezione completa e sarà minacciato dalla persistente ingegnosità dei truffatori. La lotta al male, anche in campo informatico, è un processo continuo.

Sfondo autopromo
Cosa stai cercando?
api url views