Non è più questione di “integrare l’AI”. È una riscrittura dell’interfaccia, del linguaggio e delle aspettative. Al Google I/O 2025, l’intelligenza artificiale non è stata una sezione dell’evento, ma l’architettura stessa su cui poggia ogni novità. Dalla ricerca ai dispositivi, dalle immagini alla voce, il filo conduttore è chiaro: l’AI non assiste più, agisce.
Il cambiamento più evidente riguarda Google Search, che introduce AI Mode, un’interfaccia conversazionale basata su Gemini. Al posto dei classici link e snippet, l’utente (negli Stati Uniti, per ora) accede a una modalità in grado di rispondere, riassumere, generare grafici, suggerire prodotti e compiere azioni online, come prenotare biglietti o confrontare offerte. È il passaggio dalla consultazione all’interazione, da “motore” a “agente”.
Sul fronte dell’assistenza vocale, Gemini Live guadagna nuove funzioni: può analizzare ciò che accade sullo schermo o davanti alla fotocamera e rispondere in tempo reale, con una voce sintetica in grado di modulare tono, ritmo ed espressività. L’integrazione con app come Calendar, Maps o Tasks porterà questa modalità in attività quotidiane, senza passare da un’app all’altra.
Più ambizioso ancora è Project Astra, che Google presenta come la futura estensione delle capacità dell’assistente. Astra è progettato per percepire l’ambiente, ricordare informazioni viste in precedenza, collegarle al contesto attuale e agire in modo coerente. La demo mostrata ha incluso riconoscimento di oggetti, recupero di dati da email, ricerca di manuali e perfino chiamate a esercizi commerciali, tutto tramite fotocamera e voce, senza passaggi manuali.
Per la generazione di contenuti visivi, Veo 3 porta la novità più significativa: la generazione automatica di video con audio sincronizzato, sia ambientale, sia dialogato. È già integrato in Flow, l’ambiente di regia assistita che mantiene coerenza tra soggetti e scene. Accanto a Veo, Imagen 4 migliora risoluzione e gestione del testo, mentre Lyria 2 estende la generazione musicale interattiva.
Anche il browser Chrome entra nel perimetro: Gemini è ora integrato direttamente nella UI, con una finestra ridimensionabile per riassunti, spiegazioni e suggerimenti durante la navigazione. In futuro sarà in grado di operare su più schede in autonomia.
A livello di modelli, Google punta tutto su Gemini 2.5, in versione Flash e Pro. Più efficienti nella gestione dei contesti, capaci di output audio nativo, e dotati del supporto per MCP, il protocollo standard per collegare l’AI a strumenti esterni.
Scompare la dicitura Gemini Advanced: il nuovo nome è Gemini AI Pro. E, come il resto, non è solo un’etichetta. È una direzione.