¿Cómo de cerca estamos de conseguir un SO con interfaz multimodal?

Ir abajo

¿Cómo de cerca estamos de conseguir un SO con interfaz multimodal?

Mensaje  yenifer ramirez el Vie Ago 23, 2013 8:27 pm

La capacidad de escucha de Siri, la percepción de Kinect y la versatilidad del mando de la PS4 apuntan a posibilidades de manejo multimodal impensables hasta hace unos años. Y el hardware que está a punto de llegar refuerza la necesidad de sistemas operativos capaces de integrar todos estos inputs en algo coherente.

Myo, por ejemplo, es un brazalete que mide los impulsos eléctricos de los músculos para detectar gestos y traducirlos a comandos para el PC, el teléfono u otro dispositivo. Para funcionar con otras aplicaciones, los desarrolladores deben usar una API abierta, pero eso todavía implica un esfuerzo de programación adicional.
Pero ¿por qué medir los impulsos de nuestros músculos si podemos medir directamente las órdenes impartidas por el cerebro? Con sistemas de encefalografía simplificados ya es posible “leer” impulsos elementales de nuestro córtex cerebral y convertirlos en comandos simples. Su precisión y utilidad son todavía limitadas, pero prometedoras.

Que estas tecnologías se usen en las interfaces futuras depende en gran medida de los desarrolladores de los sistemas operativos y de la atención que pongan en las interfaces multimodales.

yenifer ramirez

Mensajes : 8
Fecha de inscripción : 12/04/2013

Ver perfil de usuario

Volver arriba Ir abajo

Volver arriba

- Temas similares

 
Permisos de este foro:
No puedes responder a temas en este foro.