WWDC 2025: il software di Apple cambia pelle. Tutte le novità

Un unico linguaggio visivo chiamato Liquid Glass, un’AI diffusa e un ecosistema più fluido: la Mela cambia approccio e aggiorna tutto, da iOS a macOS

di Greta Rosa - 10/06/2025 17:50

Alla WWDC 2025, Apple ha fatto quello che fa nei momenti cruciali: ha avviato un nuovo corso. Non ha introdotto nuove categorie di prodotto, come previsto, né "one more thing", ma ha riscritto le basi di iOS, macOS, iPadOS, watchOS e tvOS, ricompattandoli sotto un’unica grammatica visiva e interattiva: Liquid Glass. Il "vetro liquido" è il nuovo linguaggio di design ispirato a visionOS, fatto di trasparenze dinamiche, riflessi e transizioni fluide, con un'interfaccia più coerente, viva, unificata e raffinata. Gli OS della Mela si riallineano (come gli astri) e si unificano sotto una nuova numerazione, 26, scelta funzionale che segna una discontinuità netta col passato e anticipa l'anno di utilizzo principale, in questo caso il 2026, appunto. Ma l’operazione va oltre le apparenze: l'identità del software Apple ne esce profondamente rinfrescata, per non dire rivoluzionata, con quello che è stato definito il più grande cambio di rotta degli ultimi dieci anni. 

Cambiamento in cui l'AI di Apple Intelligence permea il sistema, dai testi ai comandi, e fa un passo avanti deciso rispetto agli esordi, con una celata dichiarazione d'intenti: l’atteso rilancio della "nuova" Siri, l'assistente AI integrata il cui arrivo non è ancora calendarizzato, può forse aspettare ancora. Nonostante la sua assenza abbia fatto rumore, almeno in Borsa: il titolo Apple ha chiuso in calo del 2,5% subito dopo il keynote. Ma andiamo con ordine.

Il nuovo "Vetro Liquido"

Il nuovo linguaggio visivo della Mela, come anticipato in apertura, si chiama Liquid Glass. Non si tratta di un semplice tema, ma di un cambiamento strutturale: ispirato a visionOS, è un materiale software traslucido che riflette e rifrange gli elementi sullo schermo in tempo reale. Le icone, i pulsanti, le barre di navigazione, i widget e persino l’orologio della schermata di blocco si adattano al contenuto e all’ambiente. È un effetto scenico che ha conseguenze funzionali: meno sovrapposizioni invasive, più enfasi su quello che l’utente sta facendo. Su iOS, Safari e Musica mostrano barre che si ritirano quando si scorre, le foto vengono organizzate in pannelli distinti, e le icone sulla Home diventano finalmente personalizzabili, anche con trasparenze.

Un design che non si ferma all’iPhone: Liquid Glass arriva anche su macOS, iPadOS, watchOS e tvOS, con un'interfaccia unificata a livello estetico e comportamentale e la più armonica coerenza mai raggiunta da Apple.

Il passo avanti di Apple Intelligence

Apple Intelligence, già integrata da quasi un anno, ora diventa un substrato operativo più solido, una rete silenziosa di capacità cognitive distribuite: interpreta il contesto, anticipa le azioni, collega informazioni tra app e contenuti. Sebbene continui a essere sottovalutata da parte dell’opinione pubblica e di una parte della stampa, che la accusa di rincorrere affannosamente (e senza esiti particolarmente positivi) modelli generativi più chiassosi della concorrenza, l’approccio di Apple è volutamente diverso: meno appariscente, più radicato nel sistema, costruito per agire silenziosamente nel flusso d’uso quotidiano, on-device e senza compromessi sulla privacy.

Una delle evoluzioni più interessanti presentati alla WWDC 2025 riguarda Visual Intelligence, che non si limita più alla fotocamera, ma analizza qualunque elemento visibile sullo schermo. Con una pressione prolungata, l’utente può selezionare testo, date, indirizzi, link o persino interfacce complesse, e avviare azioni immediate: salvarli, cercarli online, chiedere un approfondimento, aggiungerli a un’app o condividerli, il tutto senza uscire dal flusso.

Apple Intelligence gestisce anche la traduzione in tempo reale, ora attiva su Messaggi, FaceTime e Telefono. Può tradurre conversazioni vocali o testuali tra più lingue, in diretta, e sempre on-device, senza inviare dati ai server. Nessuna interfaccia dedicata: si attiva nel contesto, quando serve.

In background, l’AI analizza anche email e documenti: riconosce automaticamente codici di tracking, appuntamenti, numeri di prenotazione e dati di consegna, e li riunisce in un’unica interfaccia in Wallet. Qui, l’utente può seguire lo stato degli ordini - anche non effettuati con Apple Pay - con aggiornamenti dinamici, mappe e date previste. 

In Wallet arrivano anche il supporto ai pagamenti a rate, l’integrazione con punti fedeltà, le carte d’imbarco aggiornate in tempo reale con mappe degli aeroporti. La sensazione è che il "Portafogli" della Mela stia diventando una vera app multi-servizio, e non più solo una tasca digitale.

Anche gli AirPods si aggiornano con controlli fisici: pressione per attivare la fotocamera, isolamento vocale e registrazioni più pulite pensate per creator, videochiamate, contesti rumorosi.

Debutta anche Apple Games, un hub per giochi installati, Apple Arcade, notifiche, sfide e overlay live durante le sessioni. Su Mac arriva Game Overlay: una barra che permette di controllare chat, obiettivi e amici senza interrompere il gioco.

macOS, iPadOS, watchOS: un ecosistema allineato

Se iOS 26 rappresenta il fulcro della strategia Apple, gli altri sistemi operativi dell'ecosistema non sono da meno nell'abbracciare il cambiamento. Anche il nuovo macOS Tahoe 26, battezzato come il grande lago tra le montagne della Sierra Nevada, eredita il design Liquid Glass, ma la vera novità riguarda Spotlight: quello che un tempo era un semplice motore di ricerca si trasforma ora in un vero e proprio centro operativo, capace di eseguire comandi, scrivere email, creare note e generare sintesi senza mai abbandonare la barra di ricerca. La convergenza tra iPhone e Mac raggiunge nuovi livelli con l'arrivo dell'app Telefono anche su desktop, completa delle funzionalità più avanzate come Call Screening e Hold Assist.

Ma è forse su iPad che si registrano i progressi più attesi. iPadOS 26 introduce finalmente un sistema multitasking più flessibile, con finestre ridimensionabili che trasformano il tablet in un vero computer: Exposé migliorato per gestire le app aperte, cartelle organizzabili nel Dock, e l'arrivo tanto richiesto dell'app Anteprima, ora dotata di supporto avanzato per PDF e file multimediali.

Per quanto riguarda watchOS 26, invece, non si limita ad adottare lo stesso linguaggio visivo Liquid Glass, ma introduce, tra le altre cose, Workout Buddy, un coach vocale personalizzato che guida l'utente durante gli allenamenti con consigli in tempo reale. L'orologio diventa più versatile che mai: traduzioni istantanee per chi viaggia, sondaggi per chi lavora in team, l'app Note per catturare pensieri al volo, e persino nuovi gesti intuitivi per gestire le notifiche con un semplice movimento del polso. Un ecosistema che, pur mantenendo le specificità di ogni dispositivo, parla finalmente una lingua comune.

Carplay si rinnova: l'auto diventa un'estensione di iPhone

Il mondo automotive è oggi uno principali campi di battaglia tecnologici, e Apple lo sa bene. Il CarPlay di iOS 26 abbraccia il design Liquid Glass, allineandosi all'estetica traslucida che caratterizza tutto l'ecosistema Apple. Ma non si tratta solo di un restyling estetico: l'interfaccia si arricchisce di widget personalizzabili che mostrano informazioni contestuali, dalla riproduzione musicale agli eventi del calendario, fino alle Live Activities che trasferiscono l'esperienza del Dynamic Island direttamente nell'abitacolo. 

La vera chicca automotive di Apple si chiama però CarPlay Ultra, una versione evoluta che non si limita al solo schermo centrale: integra il sistema operativo direttamente nei cluster strumentali e nei display secondari, trasformando l'intera plancia in un'estensione digitale dell'iPhone. La versione con steroidi di CarPlay debutterà su alcuni modelli selezionati nel corso del 2025, con un rollout inizialmente previsto in Nord America.

Foundation Models: l’AI entra nelle mani degli sviluppatori

Mentre i riflettori erano puntati su design e funzionalità visibili di Apple Intelligence, Apple ha compiuto quasi in sordina una mossa non da poco: aprire i propri modelli AI agli sviluppatori attraverso il framework Foundation Models.

Questa decisione trasforma ogni singola app dell'App Store in un potenziale contenitore di capacità generative avanzate - riassunti intelligenti, creazione di immagini, automazione di azioni complesse - tutto eseguito direttamente sul dispositivo, senza la necessità di appoggiarsi a servizi cloud esterni o sostenere i crescenti costi di inferenza che stanno mettendo in difficoltà molti sviluppatori indipendenti.

Ma è l'integrazione di ChatGPT direttamente in Xcode 26 a rivelare le ambizioni più profonde di Cupertino. Dai suggerimenti contestuali intelligenti al refactoring automatico del codice, dalla creazione autonoma di interfacce utente alla generazione di logica applicativa, gli sviluppatori hanno ora accesso a un assistente AI che comprende il contesto del progetto su cui stanno lavorando. Non si tratta solo di velocizzare il processo di sviluppo, ma di democratizzare capacità che fino a ieri erano appannaggio di pochi team specializzati.

Emerge così la filosofia che distingue Apple nel panorama dell'intelligenza artificiale: per l'azienda di Cupertino, l'AI non è un prodotto da vendere o un servizio da monetizzare, ma un'infrastruttura invisibile da distribuire capillarmente, da integrare in ogni aspetto dell'esperienza utente fino a renderla indistinguibile dalla "magia". Una strategia che, se avrà successo, potrebbe trasformare il modo stesso in cui concepiamo l'interazione con la tecnologia.

Tutte le funzionalità sono già disponibili per i test attraverso l'Apple Developer Program, mentre una beta pubblica sarà disponibile il mese prossimo. Il rilascio finale è previsto come aggiornamento software gratuito questo autunno. Le funzionalità di Apple Intelligence richiedono dispositivi supportati, inclusi tutti i modelli iPhone 16, iPhone 15 Pro, iPad mini (A17 Pro) e modelli iPad e Mac con M1 e successivi.