;Resize,width=638;)
Google ha iniziato a rilasciare nuove funzionalità basate sull'intelligenza artificiale per Gemini, il suo assistente AI, che ora può interpretare ciò che vede attraverso la fotocamera dello smartphone. La funzione, che ricorda quella di Videocamera live di ChatGPT, può essere richiamata tramite Gemini Live per ricevere risposte in tempo reale su richieste di vario genere anche usando come input "Condividi schermo con Live" . Questo aggiornamento, frutto del progetto di ricerca “Project Astra”, si sta gradualmente diffondendo in Italia tra gli utenti Android, con particolare attenzione agli abbonati a Google One AI Premium. L'implementazione della funzione si trova ancora in una fase iniziale e, almeno per ora, sembrerebbe essere destinata prima di tutto agli utenti in possesso di uno smartphone Google Pixel e di uno dei modelli della famiglia Samsung Galaxy S25. Al momento Google non ha ancora specificato quando questa tecnologia arriverà su altri smartphone Android ed eventualmente su iPhone.
Cosa può fare Gemini Live: le nuove funzioni incluse
Le nuove funzioni incluse in Gemini Live possono sicuramente contribuire a migliorare l'esperienza d'uso complessiva dell'AI di Google. L'abilità di Gemini di elaborare informazioni visive in tempo reale, infatti, può essere utile in una pluralità di contesti: potete inquadrare un oggetto con la fotocamera del vostro smartphone e ricevere spiegazioni immediate, suggerimenti pratici o risposte a dubbi e domande.
Un esempio pratico di come questa funzionalità può effettivamente tornare utile è ben illustrata in un video dimostrativo pubblicato da Google alcune settimane fa, nel quale un utente inquadra una ceramica appena smaltata e chiede consiglio su quale colore utilizzare per decorarla. Questo dimostra come l'AI possa diventare un supporto attivo nella vita quotidiana, semplificando decisioni e fornendo spunti di ogni tipo.
L'accesso a questa tecnologia avviene attraverso l'interfaccia Gemini Live. Attivandola, viene mostrata una schermata di condivisione con il pulsante “Live”, che consente di avviare uno streaming video in tempo reale, come dimostra un post comparso su Reddit di recente, che vi riproponiamo di seguito.
Questa capacità di elaborazione visiva di cui è ora dotata Gemini è resa possibile grazie agli avanzamenti nella cosiddetta intelligenza artificiale multimodale, un tipo di AI capace di combinare e comprendere più tipologie di input, non solo testo, ma anche audio, immagini e video.
Chi può usare le nuove funzioni di Gemini Live
L'adozione di questa tecnologia non è immediata per tutti gli utenti. Per ora, sembra essere attiva solo su alcuni dispositivi Android, in particolare quelli di utenti abbonati al piano Google One AI Premium, che ha un costo di 21,99 euro al mese. Google ha annunciato che i dispositivi Pixel e Galaxy S25 saranno tra i primi a ricevere queste funzionalità, ma non ha chiarito se ci siano motivazioni tecniche per questa scelta. In teoria, il sistema dovrebbe essere compatibile con altri dispositivi Android e, potenzialmente, anche con iPhone, ma al momento non ci sono informazioni ufficiali su un eventuale supporto per i dispositivi Apple.