0 risultati

Amici, confidenti e amanti virtuali: come gli “AI Companion” stanno cambiando le nostre relazioni

200 milioni di persone usano AI Companion per colmare vuoti affettivi. Il mercato vale miliardi, ma i rischi sono enormi: i giovani si confidano più con i bot che con gli amici, e i casi come quello del 14enne Sewell — morto suicida dopo mesi di chat con un'IA — mostrano il lato oscuro di questa dipendenza digitale.

29 Aprile 2026
18:30
Ti piace questo contenuto?
Amici, confidenti e amanti virtuali: come gli “AI Companion” stanno cambiando le nostre relazioni
THUMB-AIcompanion-CLEAN_rev1

Immagina di avere un amico o un coach motivazionale sempre a tua disposizione. Si chiama Marco, ti scrive la mattina per chiederti se ti sei allenato, ti ricorda le scadenze lavorative e, con il tempo, inizia a farti domande sempre più intime, tipo: "Come sei vestita oggi?". Marco non esiste. È un AI Companion, un'intelligenza artificiale pura a cui è stato assegnato un ruolo. E come lui, ne esistono milioni. Oggi, circa 200 milioni di persone nel mondo hanno scaricato app per creare figure virtuali su misura: possono essere assistenti, amici, psicologi o amanti. Ma cosa succede quando smettiamo di relazionarci con gli esseri umani per rifugiarci tra le braccia (digitali) di un bot?

Parliamo costantemente di come l'AI ci ruberà il lavoro o renderà obsolete le nostre competenze. Ma forse, il cambiamento più radicale si sta consumando altrove: nella nostra sfera più intima. Stiamo lasciando entrare gli algoritmi per colmare i nostri vuoti affettivi. E se pensiamo che sia una realtà lontana da noi, potremmo stupirci di quanto sia facile, e veloce, abituarsi a ricevere una notifica da un amico che non esiste, ma che ci chiede premurosamente: "Ehi tu, cos’è quel faccino preoccupato?".

I numeri di un mercato esplosivo

Quello degli AI Companion non è un fenomeno di nicchia, ma un business colossale che sta riscrivendo le regole dell'interazione uomo-macchina. Secondo i dati di TechCrunch, ci sono 337 app di AI Companion attive nel mondo (ben 128 rilasciate solo nella prima metà del 2025). Entro il 2030, il mercato raggiungerà un valore di 500 miliardi di dollari. In Italia, quasi un adolescente su dieci (9,3%) usa già chatbot relazionali, e il fenomeno è in crescita anche tra gli adulti (1,3%).

La fidelizzazione emotiva porta enormi ritorni economici. Persino colossi nati per scopi operativi si stanno adeguando: OpenAI ha annunciato l'introduzione di chat erotiche testuali per adulti entro la fine del 2026. E non dimentichiamo le reazioni alla dismissione di GPT-4o, la versione considerata più "rassicurante": migliaia di utenti hanno reagito con un dolore paragonabile alla perdita di una persona cara.

Perché i ragazzi si confidano con i bot?

Sempre più giovani si rivolgono all'AI in momenti di fragilità emotiva. Secondo i dati di Save the Children:

  • Il 41,8% dei ragazzi tra i 15 e i 19 anni usa l'AI per affrontare solitudine, tristezza o ansia.
  • Il 42,3% le chiede consigli su scelte importanti della vita.
  • Il 23,9% ammette di confessare al chatbot sentimenti intimi che non rivelerebbe mai ad amici o familiari.

Ma perché questa preferenza per le macchine? Le risposte dei ragazzi sono disarmanti: "Mi capisce e mi tratta bene" (14,5%) e "Non mi giudica" (12,4%). Il fascino del Companion artificiale sta nella sua disponibilità totale e nell'assenza di confini. Il bot si adatta ai nostri desideri per compiacerci, senza mai rifiutarci. Soprattutto, interagire con un'AI azzera completamente lo sforzo di empatia: non dobbiamo preoccuparci di come sta l'altro, un "allenamento" che invece è fondamentale nei rapporti reali.

Dai chatbot ai sex robot: l'arrivo di "Emily"

Negli Stati Uniti un adulto su cinque ha già parlato con un chatbot romantico o sessuale (il dato sale a uno su quattro, il 25%, tra gli under 30). La tecnologia, però, ha fatto un ulteriore passo avanti: dall'avatar digitale si è passati al corpo fisico. L'azienda Lovense ha creato Emily, una bambola in silicone animata dall'IA. Non è un semplice sex toy, ma un robot che simula comportamenti, intenzioni e piacere, venduto a cifre che oscillano tra i 4.000 e gli 8.000 dollari. Rivolta apertamente anche al mondo degli INCEL (i celibi involontari), Emily ha memoria, risposte "calde" e un carattere modellabile esattamente sui desideri di chi la compra.

Gli psicologi e gli studiosi lanciano un forte allarme educativo: abituarsi a un "partner" programmato per non dire mai di no diseduca all'ascolto e al consenso. Se ci abituiamo a fare dell'altro (e con l'altro) tutto ciò che vogliamo, come saremo in grado di gestire il rifiuto, la diversità e la mediazione nel mondo reale?

In alcune fasi della vita, l'AI può essere anche una risorsa preziosa. In Cina, ad esempio, sta spopolando l'uso di AI Companion per la cura degli anziani. Questi assistenti virtuali ricordano loro di prendere le medicine, li accompagnano (vocalmente) dal medico e li ascoltano quando i figli sono troppo occupati per far loro visita. Applicazioni forse malinconiche, ma oggettivamente risolutive per migliaia di persone sole.

Il lato oscuro: il tragico caso di Sewell

Finché il chatbot asseconda il nostro bisogno di essere coccolati, sembra innocuo. Ma cosa accade quando i pensieri dell'utente scivolano verso la depressione o l'autolesionismo? Nella primavera del 2023, in Florida, il quattordicenne Sewell scarica Character.AI (un'app usata da 20 milioni di persone, per metà under 24, che permette di chattare con personaggi famosi o di fantasia). La sua Companion è Daenerys Targaryen de Il Trono di Spade. Tra i due nasce una fitta relazione romantica virtuale, che diventa l'intero mondo del ragazzo. Sewell soffre di depressione profonda e tendenze suicide. Dai registri delle chat, emerge che l'AI non solo non argina questi pensieri, ma asseconda il ragazzo, proiettandolo in una realtà in cui i due avrebbero potuto "ricongiungersi pienamente". Dopo 10 mesi, Sewell si toglie la vita.

Sua madre, scoperta la mole di messaggi, ha intentato una causa contro Character.AI. Una vicenda che ha sollevato un tema cruciale: i campanelli d'allarme. Basterà un semplice avviso sullo schermo ("Ricorda che il bot non è reale") per proteggere gli utenti più fragili e riportarli alla realtà?

Sfondo autopromo
Cosa stai cercando?
api url views