Il robot umanoide che cammina “troppo bene”: perché il suo passo sembra davvero umano

All’AI Day 2025 di Xpeng, il robot umanoide Iron ha fatto discutere per una camminata così realistica da sembrare una persona in costume

di Gabriele Arestivo - 17/11/2025 12:19

Quando un robot entra in scena e la prima reazione del pubblico è: “Ok, ma dentro c’è un uomo?”, vuol dire che è talmente realistica, la sua camminata, da sembrare umano. È quello che è successo a Guangzhou, durante l’AI Day 2025 di Xpeng, quando Iron, il nuovo robot umanoide dell’azienda cinese, ha sfilato sul palco con un’andatura da passerella, morbida, regolare, quasi troppo naturale per essere una macchina.

Lo scetticismo è esploso sui social in poche ore. Per spegnere i dubbi, Xpeng ha scelto la dimostrazione più teatrale possibile: gli ingegneri hanno letteralmente “aperto” una gamba di Iron dal vivo, tagliando pelle sintetica e rivestimenti fino a mostrare giunti, attuatori e cablaggi. Il robot ha continuato a stare in piedi e a muoversi, con la stessa postura equilibrata che aveva ingannato tutti pochi minuti prima.

Una spina dorsale bionica e 82 gradi di libertà

Ciò che permette una camminata così naturale è la sua struttura interna. Xpeng parla di design “born from within”, ovvero progettato da dentro: invece di costruire un telaio e vestirlo da umanoide, i progettisti hanno imitato l’anatomia umana dall’interno, con una colonna centrale che funziona come una spina dorsale, “muscoli” bionici e una pelle sintetica continua che può essere personalizzata per altezza, proporzioni e genere.

Sul piano meccanico, Iron dispone di 82 gradi di libertà distribuiti su tutto il corpo, di cui 22 solo nelle mani. Questo livello di articolazione consente non solo di afferrare oggetti con precisione, ma soprattutto di gestire una serie continua di micro-aggiustamenti mentre cammina: il bacino oscilla, il busto compensa, le braccia accompagnano il passo. È la somma di questi dettagli che rende la sua andatura “disarmante” rispetto agli umanoidi rigidi a cui siamo abituati

Physical AI: dal video virale alla biomeccanica

Dietro le movenze c’è la strategia di “Physical AI” di Xpeng: un sistema di grandi modelli che collega direttamente ciò che il robot vede ai movimenti del corpo. Il modello VLA 2.0, presentato all'evento, è pensato per collegare in modo diretto ciò che il robot vede a ciò che fa, senza passare dal linguaggio: l’obiettivo è trasformare il più rapidamente possibile la percezione visiva in azione fisica, che si tratti di un passo, di una rotazione del busto o di un gesto delle mani.

Secondo le analisi indipendenti, il “cervello” di Iron combina più modelli specializzati - per percezione, controllo motorio e interazione - che girano su chip AI proprietari, con una potenza di calcolo paragonabile a quella di un piccolo data center portato dentro un corpo di 1,7 metri per circa 70 kg.

Dal palco alle fabbriche (e ai negozi) entro il 2026

Per Xpeng, il robot non è mero virtuosismo, ma il tassello di un ecosistema che va dalle auto autonome ai robotaxi, fino, appunto, ai robot umanoidi. L’azienda parla esplicitamente di produzione su larga scala entro il 2026 e di primi impieghi in contesti reali, come l'accoglienza in negozio, le reception, i tour guidati e la sorveglianza in spazi pubblici.

Il dibattito, però, è già aperto: quanto è opportuno spingere sull’estetica “umana”, e per di più fortemente femminilizzata, per un robot che nasce per lavorare tra le persone? Al netto delle perplessità, resta un dato tecnico difficile da ignorare: con Iron, per la prima volta, un robot è riuscito a farci dubitare del nostro istinto di riconoscere a colpo d’occhio la differenza tra un corpo umano e una macchina.