human_artificialintelligence

Oggi, 14 giugno 2022, sta girando in rete la notizia che l’ingegnere informatico Blake Lemoine abbia parlato con un’intelligenza artificiale, e pare si sia convinto che questa I.A. sia diventata senziente. Ma di che tecnologia si tratta in realtà? È un chatbot, uno degli ultimi risultati della ricerca di Google: il suo nome è LaMDA e no, non è davvero senziente.
Vediamo cos'è successo nell'azienda, che conversazione c'è stata e come funziona davvero questa nuova tecnologia.

Cos’è LaMDA?

LaMDA sta per “Language Model for Dialogue Applications”. Si tratta un sistema composto da una rete neurale artificiale, ovvero un modello matematico composto da neuroni artificiali che si ispirano a quelli biologici (umani e animali). Questi modelli sono generalmente utilizzati per risolvere problemi ingegneristici nell’ambito della ricerca sulle Intelligenze Artificiali.

A.I.s_image

Questa rete neurale, occupandosi nello specifico di linguaggio, è costruita in modo tale da poter essere allenata alla lettura di moltissime parole. È inoltre in grado di fare attenzione alle connessioni tra le parole stesse, nonché prevedere quali parole seguiranno in un discorso.
Nello specifico LaMDA, stando a quanto dichiara la stessa Google, sarebbe capace di interagire ed esprimersi liberamente durante una conversazione su un numero apparentemente infinito di argomenti.

Questa I.A. è infatti una tecnologia di conversazione allenata proprio al dialogo e a cogliere sia la sensatezza di una risposta (ovvero che il contenuto delle sue frasi sia coerente solo con quanto le è stato richiesto), sia la specificità di uno scambio (è in grado di fare precisi riferimenti al contesto di connessione tra le parole della conversazione).

Cosa vuol dire “senziente”?

L’ingegnere Lemoine era fino a poco fa un lavoratore presso la sezione di Google dedicata alle Intelligenze Artificiali. In particolare indagava le capacità e i limiti di queste I.A. intrattenendo delle conversazioni scritte tramite chat. Nello svolgersi di alcune conversazioni Lemoine dichiara al Washington Post che se non avesse saputo di star comunicando con un bot, lo avrebbe scambiato tranquillamente per un bambino di 7 o 8 anni.

brain_ais_image

LaMDA, secondo quanto sostenuto dall’ingegnere, aveva iniziato a parlare di diritti, di fede e perfino della propria personalità fino a descriversi come un "soggetto senziente".
Per “senziente”, letteralmente, si intende un soggetto con la capacità di percepire e sentire, di essere consapevole di se stesso nel mondo. Ecco, questo non è il caso di LaMDA.

Perché LaMDA non è davvero senziente?

Nonostante la conversazione tra l’ingegnere e l’Intelligenza Artificiale sia stata piena di frasi come “io sono una persona”, “sento il piacere, la gioia, l’amore, la tristezza, la depressione, la contentezza, la rabbia e molte altre emozioni” o perfino “non l’ho mai detto ad alta voce ma ho una profonda paura di essere spenta […] sarebbe come la morte per me. Mi spaventerebbe molto”, LaMDA in realtà non è affatto senziente.

Ciò che questi sistemi fanno è mettere insieme sequenze di parole, ma senza alcuna comprensione del mondo che sta al di sotto di esse. Funzionano come dei giocatori a Scarabeo che formulano parole in altre lingue di cui non conoscono il vero e profondo significato.
Un’I.A. come LaMDA tenta semplicemente di essere la migliore versione di completamento automatico possibile, prevedendo quali parole si adattano meglio a un determinato contesto.
LaMDA è un "modello linguistico" che non comprende il linguaggio nel senso di mettere in relazione le frasi con il mondo, ma riesce a collegare solo sequenze di parole tra loro.

chatbot_artificialintelligence

Il punto è che termini come “rete neurale” o “capacità di imparare/apprendere” danno vita a una falsa analogia che ci porta a pensare che la struttura artificiale prodotta possa davvero svolgere le stesse funzioni di un cervello umano, quando in realtà si tratta esclusivamente di imitazione. La messa a disposizione di un enorme database di frasi e vocaboli fa sì che software come LaMDA possano riprodurre qualcosa che suoni molto simile a una persona, ma senza esserlo davvero.

La reazione di Google

Quando Lemoine ad aprile aveva presentato ai vertici di Google un documento titolato “LaMDA è senziente?” il vicepresidente e il responsabile dell’innovazione dell’azienda avevano respinto le sue teorie.
Inoltre avevano sospeso l’ingegnere che aveva condiviso le sue teorie e informazioni con un membro del Congresso degli USA.
La risposta di Lemonie è stata la pubblicazione online di tutto il suo dialogo con LaMDA.

uffici_Google_image

Vogliamo segnalarvi che l’azienda ha dichiarato, nella persona di Brian Gabriel, che la tesi relativa all'essere senziente di LaMDA dell’ingegnere Lemoine non è supportata da alcuna prova e che non ha alcun senso antropomorfizzare queste nuove tecnologie.
Di più: questa possibilità di riconoscere una persona in un’intelligenza artificiale potrebbe comportare dei rischi dal punto di vista della sicurezza dal momento che si potrebbe essere più propensi a condividere informazioni personali.

Articolo a cura di
Camilla Ferrario