El increíble exoesqueleto robótico que permite a niños con discapacidad motriz dar sus primeros pasos

Desarrollado por una empresa de Estados Unidos, el dispositivo mostró un alto nivel de efectividad en las pruebas y se espera que pronto se empiece a comercializar. Cómo funciona.

Es el primer dispositivo que permitirá que chicos con discapacidad motriz, vuelvan a caminar
Es el primer dispositivo que permitirá que chicos con discapacidad motriz, vuelvan a caminar

Son miles y miles las personas que sufren de algún tipo de discapacidad motriz desde muy chicos. En Estados Unidos, el Instituto Nacional de Salud ideó un exoesqueleto para niños con este padecimiento que les permite volver a caminar.

Se trata de un dispositivo robótico pensado para niños con parálisis cerebral con problemas para controlar sus piernas, específicamente para los que padecen una complicación que les impide usar normalmente sus rodillas. El exoesqueleto les permite caminar sin necesidad de muletas o un andador, mejorando así su calidad de vida.

Se realizaron múltiples pruebas para ver como se adaptaban estos dispositivos a los niños, solo se detectó uno de ellos que en la segunda prueba tuvo éxito

Estos dispositivos tecnológicos son livianos y se colocan en zonas claves de las piernas de los niños. Además, detectan qué tanta ayuda necesitan según la debilidad muscular que presentan.

En el estudio y las pruebas médicas participaron siete personas de entre 5 y 19 años con diversos niveles de discapacidad motora. Todos los participantes lograron caminar sin ayuda gracias al exoesqueleto robótico. El peso del dispositivo sumado al de las piernas del chico va de 2,7 a 4,5 kilos, según la estatura del menor.

Seis de los niños y adolescentes consiguieron dominar el exoesqueleto robótico en la primera sesión de pruebas, mientras que el séptimo pequeño requirió algo más de práctica. Los participantes no solo lograron caminar sin ayuda, sino que también mostraron mejoras significativas en su postura corporal.

Este dispositivo, marcará un antes y un después en la vida de los niños
Este dispositivo, marcará un antes y un después en la vida de los niños

Dos de cada mil niños nacen o desarrollan algún tipo de parálisis cerebral antes de cumplir los 3 años y la gran mayoría de ellos presenta problemas para caminar. La mitad de estos chicos termina en una silla de ruedas al llegar a la edad adulta, algo que se podría prevenir con una intervención temprana y la ayuda de tecnología robótica.

El exoesqueleto robótico marcará un antes y un después en la vida de millones de niños con parálisis cerebral al entregarles la capacidad de moverse de manera más libre, permitiéndoles así una infancia más plena.

Fuente: infobae.com

Google ayuda a las personas con alzheimer a recorrer los lugares de sus vidas

Google ayuda a las personas con alzheimer a recorrer los lugares de sus vidas

Cada tres segundos se diagnostica alzheimer a una persona. Una dura enfermedad que provoca dependencia, borra la memoria y la capacidad de decisión de todos aquellos que la sufren. Además, es abrumadora y estresante para los seres queridos de los enfermos. Con el objetivo de ayudar a los pacientes con demencia a recorrer de nuevo los lugares más importantes de sus vidas, aquellos donde se fraguaron sus mejores recuerdos, Google ha desarrollado BikeAround, un dispositivo que combina una bicicleta estática con proyecciones en una pantalla de imágenes de Google Street View.

Lars e Ingrid han sido los protagonistas de una de las primeras pruebas con este nuevo dispositivo. Según ha explicado Google a través de un comunicado, para Ingrid fue muy duro darse cuenta de que su marido tenía dificultad para recordar toda una vida juntos y decidió acompañarle a dar un paseo virtual por la senda de los recuerdos de toda su vida juntos, a pedalear aquellos lugares que visitaron en el pasado.

Asimismo, Ingrid sugirió que llevaran a Lars de paseo por la ciudad y a la iglesia donde contrajeron matrimonio, una visita que iluminó de felicidad la cara del enfermo y, como no podía ser de otra manera, la de su mujer, conmovida al darse cuenta de que pudo recordar uno de los días más felices de sus vidas.

BIKEAROUND, EL DISPOSITIVO DE GOOGLE PARA AYUDAR A PERSONAS CON ALZHEIMER

El desarrollo del sistema BikeAround, que es ahora propiedad de la compañía de cuidados sanitarios Camanio Care, comenzó en el año 2010 en el Centro de Tecnología Sanitaria de Halland (Suecia). Tras realizar diversas investigaciones sobre la demencia, desde Google se dieron cuenta de que las personas que padecían esta enfermedad tenían un acceso diferente a la actividad física, dependiendo del municipio donde residían. Y como hacer ejercicio es altamente recomendable para las personas con esta condición, pensaron que este proyecto sería muy beneficioso para su salud mental y física. A partir de ahí, comenzaron a desarrollar un mecanismo para motivar a las personas de edad avanzada a realizar más ejercicio físico de forma más segura.

Por otro lado, consideran que los recuerdos más vivos se encuentran inexorablemente vinculados a lugares determinados. Cuando pensamos en un recuerdo realmente importante o en un acontecimiento pasado, lo primero que suele venir a nuestra mente es: ”¿dónde estaba yo cuando ocurrió eso?”.

ESTIMULACIÓN MENTAL Y FÍSICA

Por ello, BikeAround se basa en esta idea mediante la combinación de estimulación mental y física, mostrando alrededor del paciente lugares que reconoce gracias al uso de imágenes de Street View, haciéndole pedalear y pasear entre las imágenes. Los científicos tienen razones para pensar que esta combinación genera dopamina en el cerebro y tiene una capacidad potencial para influir en la gestión de la memoria de una forma muy profunda.

Los investigadores de todo el mundo están intentando encontrar nuevas formas para mejorar la calidad de vida de las personas afectadas por alzheimer, una enfermedad que a día de hoy no tiene cura. La experiencia con Lars— y con otros muchos pacientes — demuestra que desde Google están desarrollando un producto para mejorar la salud, sino que también creamos emociones y ponemos en contacto a las personas.

”Los pacientes encuentran a menudo que la solución BikeAround es tan fascinante -y tan reconfortante- que no quieren bajarse del sillín. Los vecindarios donde vivieron. Los parques donde jugaron cuando eran niños. Los viajes familiares a la costa. Todo ello les permite recordar de nuevo y les proporciona una sensación de libertad”, ha detallado Anne-Christine Hertz, directora del Centro de Tecnología Sanitaria de Halland y creadora de este dispositivo.

Fuente: nobbot.com

Científicos de Harvard crean un exoesqueleto ligero que ayuda a caminar

Científicos de Harvard crean un exoesqueleto ligero que ayuda a caminar

 

Escrito por Andrea Núñez-Torrón Stock

Un equipo de científicos de la Universidad de Harvard se encuentra trabajando en un innovador exoesqueleto ligero para aligerar el esfuerzo al caminar y prevenir los problemas de movilidad.

Una reciente investigación científica firmada en la Universidad de Harvard ultima un exoesqueleto ligero que se engancha a la cadera y al tobillo para que personas enfermas o ancianas puedan caminar. El año pasado proporcionaron los primeros resultados de prueba, demostrando que esta estructura robótica portátil podríareducir considerablemente el gasto de energía en personas sanas que caminan con una carga en la espalda.

La investigación, publicada en la revista Science Robotics y que ha contado con la participación de siete personas, ha revelado un ahorro energético del 23%, “la mayor reducción de energía constada hasta la fecha en un exoesqueleto”, en palabras de Connor Walsh, director del Instituto Wyss y de la investigación.

Su estructura cuenta con dos fundas, una para los tobillos y otra para las caderas, unidas por un entramado de correas responsables de transmitir el movimiento. Todas las piezas conectadas al exoesqueleto están conectadas a un dispositivo que lo gestiona. Una de las principales novedades respecto a sus predecesores es la ligereza y flexibilidad de sus materiales, que en otros modelos previos son rígidos y dependen de pesadas baterías.

Sus componentes textiles funcionales, su sistema de control biológico y la asistencia sincronizada con el mecanismo de caminar hacen de este exoesqueleto ligero un gran avance.

Científicos de Harvard crean un exoesqueleto ligero que ayuda a caminar

Múltiples aplicaciones

En un grupo de prueba compuesto por siete usuarios sanos, apreciamos claramente que cuanto más asistencia se proporciona a las articulaciones del tobillo, más energía los usuarios podrían ahorrar con una reducción máxima de casi el 23% en comparación con caminar con el exosuit apagado“, dijo Walsh. Los autores de la investigación señalan que todavía se requieren estudios futuros para comparar los efectos del exoesqueleto según el peso añadido del sistema, la cantidad de ropa o la cantidad de fuerza aplicada. 

Las aplicaciones de este nuevo descubrimiento serán muy diversas, beneficiando a una amplia gama de personas con problemas motrices. Desde pacientes con Parkinson a personas mayores con movilidad reducida, personas que trabajan cargando objetos pesados o empleados con diversidad funcional, todos ellos podrían emplear el exoesqueleto ligero para ahorrar esfuerzo para su cuerpo.

Por otra parte, cuando se desarrolle en mayor profundidad, este sistema podría ser capaz de ralentizar la pérdida de facultades motrices y de movilidad derivadas de la edad avanzada.

Fuennte: ticbeat.com

Parapléjico vuelve a tocar la batería, ayudado por las Nuevas Tecnologías

TecnologíaParapléjico vuelve a tocar la batería, ayudado por las Nuevas Tecnologías Andrea Cummins

En 1986,  Alan Cornett quedó parapléjico. Sufrió un grave accidente con su automóvil que lo dejó sin movilidad en sus piernas. Él era baterista y sus sueños habían quedado truncos al recibir una lesión en su médula espinal. Los doctores le había dicho que nunca mas iba a poder volver a tocar la batería. Hasta que decidió utilizar un micrófono en su boca,  mediante su voz y una computadora, replicar el sonido del bombo.

 

El aprendió a utilizar su lengua, para disparar secuencias de una batería electrónica. Con este convertidor trigger-to-midi, transforma la señal creada por los triggers a una señal Midi. Combinando una batería normal, con una electrónica manejada con la boca.

Las nuevas tecnologías deben estar al servicio de personas con capacidades diferentes. Y aprovecharlas, tanto para poder volver a realizar actividades o hobbies y para integrarse a la sociedad.

Según  la Fundación Adecco , el 60 % de loas personas con discapacidad utilizan aplicaciones que facilitan las tareas de la vida cotidiana.

  • Las personas con discapacidad visual son las que más las emplean (77%), seguidas de las que tienen discapacidad auditiva (73%), física (65%) e intelectual (50%).

  • Estas aplicaciones les permiten desde comunicarse en igualdad de condiciones hasta denunciar una violación de un derecho o localizar un aparcamiento accesible.

  • Algunas de las Apps más usadas son Siri, Google Talk Back, VoiceOver (discapacidad visual), SVisual (discapacidad auditiva) o Disabled Park (discapacidad física).

  • Un 84% de las personas con discapacidad afirma que las Nuevas Tecnologías han mejorado su calidad de vida global.

  • Las personas con discapacidad siguen participando de forma exigua en el mercado laboral y las NT pueden ayudar a incrementar su actividad: a través de adaptaciones tecnológicas que les permitan desempeñar puestos de los que antes estaban excluidos, a través de fórmulas como el teletrabajo, etc.

  • De hecho, el 50% de los encuestados con empleo declara que puede desempeñar su puesto gracias a la contribución de las NT.

  • Sin embargo, un 63% sigue encontrando barreras para acceder a las Nuevas Tecnologías, la mayoría de índole económico.

  • Asimismo, la mayoría de los encuestados (80%) cree que el desarrollo de las Nuevas Tecnologías no ha ido acompañado de otras medidas de Accesibilidad, lo que ocasiona situaciones de dependencia injustificadas

Fuente: geeksroom.com

La Inteligencia Artificial ayuda a las personas con discapacidad visual

Accenture desarrolla Drishti, una solución que proporciona asistencia telefónica inteligente utilizando tecnologías como el reconocimiento de imágenes o el procesamiento y generación del lenguaje natural para describir el entorno.

La consultora Accenture ha anunciado el desarrollo de una nueva solución de Inteligencia Artificial diseñada para ayudar a las personas con algún tipo de discapacidad visual a mejorar la forma en que experimentan el mundo que les rodea y optimizar su productividad en el lugar de trabajo. Denominada Drishti, que significa “visión” en sánscrito, forma parte del enfoque de Accenture de aplicar la tecnología para mejorar la forma en que el mundo vive y trabaja resolviendo desafíos sociales complejos.

Básicamente, esta solución proporciona asistencia telefónica inteligente utilizando tecnologías como el reconocimiento de imágenes, el procesamiento del lenguaje natural y las capacidades de generación de lenguaje natural para describir el entorno de una persona con discapacidad visual. Por ejemplo, es capaz de narrar al usuario el número de personas en una habitación, sus edades, géneros e incluso emociones basadas en expresiones faciales. También se puede utilizar para identificar y narrar el texto de libros y documentos, incluyendo billetes de divisas, e identificar las obstrucciones como puertas de vidrio para mejorar la seguridad del usuario.

De momento, según ha anunciado la compañía, la solución se está probando en Suráfrica, así como una versión en español con empleados de Accenture en Argentina.

En opinión de Paul Daugherty, director de tecnología e innovación de la empresa, esta iniciativa es “un gran ejemplo de cómo la tecnología de IA puede potenciar a los humanos aumentando sus capacidades para que puedan lograr más para ellos y para el mundo que los rodea”. Por su parte, Sanjay Podder, director de Accenture Labs en Bangalore, Accenture Tech4Good y Eisenhower Fellow, asegura: “Al aprovechar los rápidos avances en la tecnología de IA, hemos demostrado con este proyecto el impacto que pueden tener las soluciones innovadoras en la mejora de la forma en que las personas viven y trabajan”, concluye.

Fuente: ituser.es

Investigación de la UPNA sobre tecnología asistida para tetrapléjicos

El ingeniero Mikel Ariz Galilea ha diseñado un método para estimar la posición de la cabeza y así poder controlar con los ojos dispositivos electrónicos

El ingeniero Mikel Ariz Galilea ha diseñado un método para estimar la posición de la cabeza y así poder controlar con los ojos dispositivos electrónicos

El ingeniero de Telecomunicación Mikel Ariz Galilea (Pamplona, 1984) ha diseñado un método para estimar la posición de la cabeza, un primer paso para saber dónde está mirando una persona y así poder controlar con los ojos dispositivos móviles como ordenadores portátiles, teléfonos inteligentes o tabletas.

Esta investigación, fruto de su tesis doctoral leída en la Universidad Pública de Navarra (UPNA), abre el camino para ofrecer tecnología asistida de bajo coste y gran sencillez de uso a personas con un alto grado de discapacidad motora.

La tecnología asistida está especialmente indicada para personas con un alto grado de discapacidad motora, como las tetrapléjicas. “Gracias a la comercialización de ordenadores que se pueden controlar con la mirada, algunas de ellas han conseguido mejorar su calidad de vida. Sin embargo, se trata de equipamientos muy caros, cuyo acceso es limitado debido a su elevado coste”, ha explicado la UPNA en un comunicado.

La investigación de Mikel Ariz busca que estas personas puedan hacer uso de las técnicas de seguimiento de la mirada con la cámara web de cualquier ordenador, lo que abarataría el proceso.

Actualmente, en la mayoría los proyectos sobre estimación de la mirada, con la que se controlan dispositivos, se trabaja con cámaras de alta resolución, que realizan un seguimiento exhaustivo de los ojos a partir de imágenes en dos dimensiones. Para lograr una definición superior, se utilizan dos iluminadores de infrarrojos, que crean unos reflejos en las pupilas, lo que facilita la detección de estas y ayuda a revelar qué punto de la pantalla del ordenador está observando el usuario.

Las aplicaciones de la tecnología de seguimiento de la mirada son múltiples: desde el control de dispositivos móviles por parte de personas tetrapléjicas a la asistencia a la conducción (mediante dispositivos que, conociendo dónde mira una persona, evitan que se duerma o se distraiga al volante), pasando por campos muy amplios de la ingeniería biomédica.

POSICIÓN Y ORIENTACIÓN DE LA CABEZA

Mikel Ariz ha desarrollado métodos de visión por ordenador para determinar la posición y orientación de la cabeza respecto a la cámara. “La idea ha sido proponer la estimación de la posición de la cabeza en tres dimensiones, de manera que se indique la rotación y la traslación. Este es un paso muy importante, porque utilizando la información del posicionamiento de la cabeza es más sencillo saber dónde está mirando la persona, que sería el paso siguiente que habría que dar para concluir el proyecto”, señala Mikel Ariz, cuya tesis, dirigida por los profesores del Departamento de Ingeniería Eléctrica y Electrónica Rafael Cabeza Laguna y Arantxa Villanueva Larre, obtuvo la calificación de sobresaliente ‘cum laude’.

Aunque su metodología no ofrece la misma definición que la de las cámaras de alta resolución, se ha obtenido más precisión y mejores resultados que en similares trabajos anteriores. “Se trata de un proyecto muy ambicioso y, lo más importante: accesible para todas las personas, tanto por su coste como por su sencillez. Tan solo sería necesario un ordenador portátil con cámara web. Además, también se podría utilizar como aplicación móvil en teléfonos inteligentes o en tabletas, algo en lo que se trabaja mucho actualmente”, comenta el nuevo doctor.

Asimismo, otra de las ventajas de la investigación de Mikel Ariz reside en que no precisa un entrenamiento previo por parte del usuario, “un proceso complejo y muy costoso en tiempo que, además, necesita amplias bases de datos anotadas”. “Esta metodología, en cambio, no lo necesita, lo que supone un valor añadido”, apunta.

Finalmente, la metodología desarrollada en esta investigación es generalizable a cualquier objeto. “En la tesis, se ha aplicado a caras y a personas, pero se puede probar con cualquier objeto al que se quiera hacer un seguimiento con la cámara en el espacio. Tan solo se necesita un modelo tridimensional aproximado de ese objeto. Por ejemplo, se podría reconstruir un edificio turístico en tres dimensiones a partir de fotografías”, concluye.

Mikel Ariz se tituló en 2008 en Ingeniería de Telecomunicación por la Universidad Pública de Navarra (UPNA) con premio extraordinario al mejor expediente académico de su promoción. Tras trabajar durante dicieciocho meses en la UPNA con una beca de formación de tecnólogos, obtuvo una beca del Gobierno de Navarra para cursar un Máster en Ingeniería Biomédica en la Universidad de Melbourne (Australia). A su regreso, obtuvo una beca FPU (Formación de Profesorado Universitario) del Ministerio de Economía, Industria y Competitividad, con la que ha desarrollado su tesis en el ámbito de procesado digital de imagen y visión artificial. En 2012, realizó una estancia de investigación en el Imperial College London (universidad de la capital británica).

Actualmente, trabaja en la Plataforma de Imagen del CIMA (Centro de Investigación Médica Aplicada) de Pamplona y está involucrado en diversos proyectos de investigación, principalmente, en el área de imagen del cáncer. Es, además, profesor asociado del Departamento de Histología y Anatomía Patológica de la Universidad de Navarra.

Fuente: diariodenavarra.es

Diseñado un arnés robótico que ayuda a recuperar la capacidad de caminar tras un ictus

La nueva técnica posibilita una rehabilitación más rápida y eficaz de la deambulación en pacientes que han sufrido un ictus o una lesión medular

La mayoría de pacientes que sobreviven a un ictus presentan algún tipo de discapacidad residual - ARCJean-Baptiste MignardotHIVO
La mayoría de pacientes que sobreviven a un ictus presentan algún tipo de discapacidad residual – ARCJean-Baptiste MignardotHIVO

El ictus o accidente cerebrovascular constituye una de las primeras causas de discapacidad en todo el mundo. De hecho, la gran mayoría de los 300.000 pacientes que, solo en nuestro país, han sobrevivido a un ictus presenta algún tipo de discapacidad residual, caso de la pérdida de la capacidad para caminar. En consecuencia, y una vez sufrido el episodio, los afectados se ven abocados a pasar largas jornadas sobre una cinta de andar para recuperar la deambulación. Una terapia rehabilitadora que requiere una enorme inversión de tiempo y energía pero que no siempre ofrece resultados satisfactorios. Y es que contrariamente a como sucede al caminar sobre una cinta, en la ‘vida real’ hay cambios de direcciones, de superficies y de velocidad de la marcha. Es decir, hay muchas fuerzas gravitatorias en juego. De ahí la importancia de un nuevo estudio llevado a cabo por investigadores de la Escuela Politécnica Federal de Lausana (Suiza), en el que se describe un nuevo método que posibilita una recuperación mucho más rápida y eficiente de la capacidad de caminar en pacientes que han sufrido un ictus y otras lesiones neurológicas, incluidas las lesiones medulares.

Como explica Jean-Baptiste Mignardot, director de esta investigación publicada en la revista «Science Translational Medicine», «la recuperación de la deambulación tras un trastorno neurológico requiere una ‘reprogramación’ de la interacción entre los mecanismos corporales y las fuerzas gravitacionales. Pero a pesar de la importancia de las interacciones de la locomoción dependientes de la gravedad, estos componentes esenciales en la rehabilitación de la deambulación han recibido, por lo general, una atención mínima. Por ello, hemos diseñado un algoritmo adaptativo que personaliza las fuerzas multidireccionales aplicadas al tronco al caminar en función de los déficits motores específicos de cada paciente».

Fuerzas gravitatorias

En la actualidad, muchas de las terapias rehabilitadoras que se emplean para la recuperación de la capacidad de deambulación tras un ictus o una lesión medular incluyen un arnés que corrige la posición del tronco superior mientras el paciente camina sobre una cinta de andar. Un arnés rígido cuyo único propósito es enderezar el tronco y que no tiene en cuenta los cambios de dirección o de ritmo durante la deambulación. Quizás porque no hace falta: la dirección en la cinta siempre es la misma. Y el ritmo de marcha, por lo general, también.

Pero, ¿qué pasa si el paciente, tal y como ocurre en el mundo real, quiere, por ejemplo, ir hacia atrás o hacia los lados? En estos casos, las fuerzas de la gravedad tienen un efecto que debe ser compensado por la posición del tronco. Lo cual no puede llevarse a cabo si el arnés es rígido.

Para solventar este problema, los autores han diseñado un arnés robótico que contrarresta las fuerzas gravitatorias sobre el tronco mientras los pacientes caminan hacia delante, hacia atrás o lateralmente. Y dado que los usuarios presentan problemas motores derivados de sus lesiones neurológicas, los autores también han desarrollado un algoritmo que ajusta individualmente la posición del arnés en función del déficit motor de cada paciente.

Es más; el sistema está controlado por una red neural artificial que varía las fuerzas aplicadas sobre el arnés mediante un cable y a partir de la información de más de un centenar de variables relacionadas con el movimiento corporal.

Pero este arnés robótico, ¿funciona? Pues sí. Los resultados de este estudio, llevado a cabo con 26 pacientes en rehabilitación tras un ictus o una lesión medular, mostraron que los participantes que requerían apoyo para caminar lo hacían de una forma totalmente natural y con unas capacidades motoras similares a los de los individuos sanos gracias al arnés robótico. Y en los casos en los que los pacientes podían llegar a caminar sin ayuda, el arnés mejoró el equilibrio, la coordinación de extremidades y la colocación del pie al pisar.

Aún habrá que esperar

En definitiva, parece que el nuevo arnés robótico –y su algoritmo– es más efectivo que los arneses rígidos a la hora de procurar la recuperación de la deambulación tras una lesión neurológica. De hecho, una hora de entrenamiento sobre el terreno con el arnés y el algoritmo conllevó importantes mejoras en la capacidad para caminar sin ayuda en cinco pacientes con lesión medular, mientras que el andar sobre una cinta durante el mismo periodo de tiempo provocó que uno de los sujetos experimentara un empeoramiento real y objetivo de su locomoción.

Como indican los autores, «nuestros resultados ponen de relieve la importancia del apoyo preciso del tronco para proporcionar protocolos de rehabilitación de la marcha y establecer un marco práctico para aplicar estos conceptos en la práctica clínica rutinaria».

Y esta nueva tecnología, ¿cuándo estará disponible para su uso por los pacientes? Pues aún habrá que esperar. Como concluye Jean-Baptiste Mignardot, «a día de hoy ya estamos llevando a cabo un ensayo clínico utilizando esta estrategia de asistencia robótica para la rehabilitación de pacientes con lesiones medulares».

Fuente: abc.es

La realidad virtual, accesible para personas con discapacidades físicas

Un desarrollador muestra las posibilidades de un ‘software’ para adaptar sin modificar los controles físicos de la realidad virtual a personas con movilidad reducida

La realidad virtual, accesible para personas con discapacidades físicas

En su definición simplificada, la realidad virtual “permite la generación de entornos que rompan las restricciones habituales de espacio-tiempo, lo cual hace posible la generación de movimiento, intercambio y comunicación.” Esto supone que los movimientos realizados en el mundo real se recogen y trasladan mediante controles y sensores al mundo virtual. Y aunque el mundo virtual puede desobedecer las reglas físicas en la práctica sucede que cada limitación de movimiento en el mundo físico se traslada también al mundo virtual.

De modo que para una persona que usa silla de ruedas, que está postrado en una cama o que tiene un brazo inmovilizado o amputado, sus limitaciones para moverse libremente suponen un impedimento para moverse también libremente en entornos virtuales, lo que resulta en cierto modo contradictorio teniendo en cuenta las posibilidades que ofrece la realidad virtual. “El afán por recrear en un entorno virtual los movimientos corporales de forma realista y precisa está dejando fuera a las personas con discapacidades físicas”, dicen en Make.

Greg Bednarski ha desarrollado Walkin VR con el propósito de resolver esta incoherencia. El programa informático de Greg consiste en un asistente por software que permite a las personas con movilidad limitada o reducida hacer un uso de la realidad virtual sin que sus limitaciones corporales supongan un impedimento. Si bien plataformas de realidad virtual como SteamVR permiten realizar una serie de ajustes de configuración para adaptarse a las necesidades o preferencias del jugador —por ejemplo, cuando se utiliza un juego de realidad virtual en un espacio físico de tamaño reducido–, el “driver” Walkin VR mejora esta adaptación teniendo en cuenta además las limitaciones físicas del jugador.

Las plataformas de realidad virtual de consumo más completas, como las de Oculus, HTC Vive o PlayStation VR, constan de gafas de realidad virtual con diversos sensores de movimiento —para reconocer hacia dónde se dirige y hacia dónde mira el usuario— y con un par de controladores que se manejan con ambas manos, que introducen en el entorno virtual los movimientos del cuerpo y permiten interactuar con objetos irreales. El sistema también puede incorporar un sensor externo que capta desde fuera y de manera tridimensional los movimientos del usuario con precisión adicional a los movimientos registrados por los sensores incorporados en las gafas.

Un aspecto importante de Walkin VR es que no requiere ninguna modificación en los sistemas de realidad virtual ya existentes, ni tampoco hacer modificaciones en las aplicaciones o juegos. En cambio, el asistente utiliza diversas combinaciones de los controladores y de los sensores ya existentes para introducir en el entorno virtual movimientos que un jugador no puede realizar en el mundo físico. En este vídeo de ejemplo un usuario con un brazo inmovilizadopuede simular los movimientos del segundo controlador (el que manejaría con el brazo que tiene en cabestrillo) mediante movimientos hechos con la cabeza; el asistente modifica de este modo el entorno virtual para adaptarse a la persona que está en desventaja con el resto de jugadores, que no perciben esa adaptación personalizada.

En este otro vídeo una jugadora en silla de ruedas y con una limitación de movimiento en los brazos también puede hacer uso de otro juego que requiere desplazarse y levantar ambos brazos para desplazarse por el entorno computerizado, apuntar y disparar. En este caso el asistente Walkin VR compensa esa limitación haciendo un seguimiento del movimiento de los ojos a partir de los cuales simular en tiempo real el movimiento de los brazos. De nuevo se trata de un juego existente y sin modificar que el “driver” adapta a la limitación física de esa persona.

Aunque Walkin VR se puede adquirir como unos 30 euros todavía según Greg es un desarrollo en beta al que se le irán añadiendo opciones que amplíen las posibilidades de juego y de uso de la realidad virtual para personas con discapacidades físicas. Sin embargo, dicen en Road to VR, resolver este problema no debería ser solo la tarea de un programador: “los desarrolladores de aplicaciones y de juegos de realidad virtual deberían consensuar la manera de hacer que los juegos y las aplicaciones VR sean tan inclusivos como sea posible a todo tipo de jugadores.”

Fuente: elpais.com

Presentaron “gafas inteligentes” para personas con discapacidad visual

El innovador dispositivo tecnológico consta de una cámara que se coloca en la patilla de los anteojos; lee textos y reconoce el rostro de familiares y amigo

En el SUM de la ONG Nueva Cultura, Rubén Balttipeda presentó una novedosa tecnología para personas no videntes o con escasa visión. Foto: Guillermo Di Salvatore
En el SUM de la ONG Nueva Cultura, Rubén Balttipeda presentó una novedosa tecnología para personas no videntes o con escasa visión. Foto: Guillermo Di Salvatore

Redacción de El Litoral

area@ellitoral.com

La Asociación Santafesina Nueva Cultura, ubicada en Francia 3452, presentó una cámara que va en la patilla de los anteojos. Esta nueva tecnología lee textos en papel impreso, como así también en computadoras y celulares. Además, reconoce rostros de familiares y amigos.

La presentación se realizó en el marco de las actividades que realiza la Asociación, que desde hace 23 años trabaja en pos de lograr la inserción educativa, laboral, cultural y social de las personas con discapacidad visual, en especial, de aquellos con escasos recursos económicos y dificultades sociales. La asociación cuenta con programas de estimulación temprana, general y altamente especializada para personas con baja visión.

Tecnología para la vida cotidiana

Según datos de la Organización Mundial para la Salud (OMS), en el mundo hay 285 millones de personas con discapacidad visual, de las cuales 39 millones son ciegas y 246 millones presentan baja visión. Este artefacto novedoso ayuda a superar estas dificultades con la implementación de una cámara inteligente que se monta en la patilla de cualquier lente y permite identificar objetos próximos.

“Actividades cotidianas como ir al supermercado, leer el diario o distinguir los carteles de la vía pública, pueden resultar muy fastidiosas para quienes tienen algún defecto visual”, comentó Rubén Bettipeda, quien presentó el dispositivo.

Graciela Palombi, presidente de la asociación, manifestó que la tecnología les permitirá concretar la deseada independencia, ya que van a poder hacer un montón de cosas que antes no podían realizar por sí mismos.

¿Cómo funciona?

El usuario puede saber qué tipo de objetos tiene a su alcance y “registrar” determinados rostros con sus respectivos nombres. De modo que cuando los tenga enfrente, el dispositivo diga en voz alta o individualmente el nombre de la persona o el producto que esté próximo.

El sistema se compone de una cámara de 8 megapíxeles y un auricular de conducción ósea, que se sitúa sobre la varilla derecha de la montura. Adicionalmente viene una unidad de control —similar al tamaño de un celular— que comprende una batería dotada de inteligencia artificial y capacidad de aprendizaje.

Esta tecnología pesa sólo 30 gramos. La batería se carga por 4 horas —se recomienda que sea durante la noche— y su durabilidad es de una autonomía de un día. Sin embargo, quienes deseen cargar la batería y utilizar el dispositivo simultáneamente también lo podrán realizar.

Otro dato interesante es que puede almacenar en la memoria hasta 100 caras y 150 productos. Una vez saturada la capacidad de almacenamiento, se puede borrar aquello que se desea descartar para incorporar nuevos.

Fuente: ellitoral.com

Maptic, el GPS diseñado para personas ciegas y débiles visuales

Para las personas con discapacidad visual, usar un navegador para llegar a su destino puede ser un poco impráctico y riesgoso.
Para las personas con discapacidad visual, usar un navegador para llegar a su destino puede ser un poco impráctico y riesgoso.

Autor: National Geographic en español

En estos tiempos, lo primero que una persona hace cuando quiere llegar a un sitio en una ciudad desconocida, o incluso en el lugar donde vive, es activar el GPS del automóvil o el celular; pero ¿qué pasa cuando se tiene una discapacidad visual? ¿cómo se llega a un destino si no ves por dónde vas?

Aunque esta situación puede parecer imposible para aquellas personas que gozan de buena vista, no lo es tanto para las personas ciegas o débiles visuales que, como cualquier persona, pueden moverse de ubicación por si solos o en transporte público; sin embargo, los sistemas de navegación o GPS no son adecuados para ellos, ya que muchos dependen del uso de audífonos para dar indicaciones, algo muy riesgoso para el usuario porque no está atento a los sonidos del entorno.

Teniendo esta problemática en cuenta, el diseñador industrial Emilios Farrington-Arnas de la Universidad de Brunel, en Londres, diseñó Maptic, un navegador especialmente diseñado para las personas ciegas y con una discapacidad visual.

En este video se explica con detalle el funcionamiento de este dispositivo

 

Este aparato se compone de un sensor visual que se puede usar como un collar, y una serie de unidades de retroalimentación que se pueden poner en la ropa o alrededor de la muñeca, como una pulsera. Este sensor se conecta a una aplicación de iPhone controlada por voz, por lo que puede utilizar el GPS para dirigir al usuario a través de una serie de vibraciones a la izquierda o derecha del cuerpo.

Basado en su investigación, Farrington-Arnas cree que esta es la forma más natural y confiable de instrucción táctil, ya que la gente está acostumbrada a la vibración de sus teléfonos.

El dispositivo es conveniente para las personas ciegas, ya que ofrece características que les proporciona seguridad y comodidad.Foto: Emilios Farrington-Arnas
El dispositivo es conveniente para las personas ciegas, ya que ofrece características que les proporciona seguridad y comodidad.Foto: Emilios Farrington-Arnas

Maptic tiene varias ventajas, la más importante es que no depende de audífonos para dar indicaciones al usuario y se puede estar atento a los sonidos del ambiente. Otra gran ventaja es que este dispositivo es capaz de rastrear y responder a obstáculos a la altura del pecho y más altos.

Quizá esta sea la ventaja con menos relevancia, pero el diseño de Maptic es muy estético y puede usarse como un accesorio, contrario a otros dispositivos de navegación para personas ciegas que tienen un aspecto más clínico.

Fuente: .ngenespanol.com