Una silla de ruedas con IA que se puede controlar con expresiones faciales

Bajo el nombre de Wheelie 7, la silla de ruedas reconoce en tiempo real expresiones del rostro para realizar diversos movimientos y maniobras.

Una silla de ruedas con IA que se puede controlar con expresiones faciales
Una silla de ruedas con IA que se puede controlar con expresiones faciales
logo squared 200x200
29 diciembre 2018 | 00:00 h

El término inteligencia artificial (IA) se acuñó por primera vez en 1954 en una conferencia en Dartmouth. Desde entonces, ha experimentado una gran evolución, hasta tal punto que puede llevar a abarcarlo todo. Algunos de los campos en los que más presente está este tipo de tecnología son: la robótica, los sistemas de armamento, la cartografía…

Sin embargo, la medicina tampoco ha dejado pasar las ventajas que otorga la inteligencia artificial y ha empezado a usar esta tecnología para avanzar en el sector, por lo que podríamos decir que la inteligencia artificial es la herramienta del futuro, también del sector sanitario.

La precisión del sistema de reconocimiento incluso puede detectar que el usuario está quedándose dormido, reconocer diez niveles de dolor, agitación o espasmos

En este sentido, el fabricante de hardware Intel y la compañía Hoobox Robotics han lanzado una silla de ruedas impulsada por inteligencia artificial (IA) que puede ser controlada mediante expresiones faciales.

ESCOGER ENTRE 10 EXPRESIONES FACIALES

Bajo el nombre de Wheelie 7, esta silla de ruedas permitirá a los usuarios escoger entre al menos diez expresiones faciales para controlarla.

En lugar de utilizar sensores invasivos por todo el cuerpo para controlar la silla de ruedas, Wheelie 7 utilizará la cámara de profundidad RealSense 3D de Intel ubicada en la parte superior de la silla, para transmitir datos que la IA puede analizar en tiempo real para activar las funciones de movimiento de la silla.

Instalar el kit Wheelie 7 toma apenas siete minutos (de ahí su nombre), y viene acompañado por una aplicación a través de la cual el usuario puede escoger qué expresiones utilizar para comandar la silla. El objetivo es ofrecer una mayor autonomía a personas con movilidad limitada sin necesidad de un entrenamiento ya que el programa reconoce gestos de forma universal.

Desde Hoobox Robotics han asegurado que la precisión del sistema de reconocimiento incluso puede detectar que el usuario está quedándose dormido, reconocer diez niveles de dolor, agitación o espasmos. "Incluso puede detectar cuándo una persona va a estornudar antes de que lo haga", han afirmado desde la compañía.

El prototipo está siendo probado por más de sesenta pacientes en Estados Unidos, muchos de los cuales sufren de cuadriplejia, esclerosis múltiple o tienen alguna discapacidad relacionada con la edad.

Los contenidos de ConSalud están elaborados por periodistas especializados en salud y avalados por un comité de expertos de primer nivel. No obstante, recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.
Lo más leído