Così Meta trasforma un pensiero in click: il braccialetto-prototipo che controlla dispositivi senza toccarli

Il wearable sviluppato da Reality Labs legge l’intenzione del gesto e controlla computer e visori AR solo con impulsi nervosi, senza contatto fisico

di Redazione - 30/07/2025 10:34

La divisione Reality Labs di Meta sta lavorando a un braccialetto neuromotorio, descritto in uno studio pubblicato su Nature, capace di intercettare i segnali elettrici inviati dal cervello ai muscoli del polso e tradurli in comandi digitali. 

La tecnologia alla base è la surface electromyography (sEMG): minuscoli elettrodi, integrati nel cinturino, rilevano i segnali elettrici inviati dal cervello ai muscoli del polso ancora prima che la mano si muova. Questi impulsi vengono elaborati in tempo reale dagli algoritmi di intelligenza artificiale, capaci di tradurre l’intenzione in comandi digitali. Basta quindi pensare di cliccare per vederlo accadere, senza il bisogno di toccare uno schermo o un mouse.

A differenza delle precedenti generazioni di interfacce neuromotorie, che richiedevano ore di calibrazione per adattarsi ai segnali di ogni singolo utente, il braccialetto di Meta funziona subito: migliaia di partecipanti hanno contribuito a creare un vasto dataset che ha permesso di addestrare reti neurali in grado di interpretare i microsegnali nervosi di chiunque lo indossi. Ciò significa che l’accesso a questa tecnologia potrebbe essere semplice e universale, senza training personalizzati.

Prestazioni e applicazioni

Nei test condotti, il braccialetto ha permesso di spostare cursori, selezionare oggetti e scrivere nell’aria a una velocità di oltre 20 parole al minuto, simile a quella di una tastiera touch. Il dispositivo si è peraltro dimostrato stabile e affidabile anche in condizioni difficili, senza dipendere dalla luce ambientale come fanno alcune soluzioni basate su telecamere.

Il progetto è stato guidato da Thomas Reardon, già fondatore di CTRL Labs, società acquisita da Meta nel 2019. Secondo gli autori dello studio, l’obiettivo non è solo migliorare l’interazione con computer e smartphone, ma sperimentare nuove modalità di controllo per i dispositivi di realtà aumentata e per tecnologie assistive dedicate a persone con limitazioni motorie.