Dopo avervi parlato della volontà di Google di realizzare dei tessuti touch screen, parliamo di Project Soli, ovvero la realizzazione pratica della convinzione di Google che il miglior modo di interagire con i devices indossabili siano i gesti.
La soluzione proposta è l’utilizzo di un radar in miniatura che da un lato intercetti interi oggetti, dall’altro possa essere inserito nei devices che usiamo quotidianamente.
Project Soli può tracciare la posizione della nostra mano in tempo reale ed è in grado di elaborare i movimenti della stessa tramutandoli in comanda da inviare ai gadget.
“Nel quotidiano usiamo in continuazione le mani per comunicare e dovremmo essere in grado di usarle anche per interagire con la tecnologia. La nostra soluzione non prevede di sbracciarsi come dei matti davanti al Kinect. Abbiamo molte idee di cosa ci si possa fare, ma ci serve un prodotto per provarle”
─ Ivan Poupyrev, fondatore di Project Soli
Sui tempi di un suo utilizzo non ci sono informazioni, ma Google sta lavorando per rilasciare le API agli sviluppatori entro l’anno.