Exoesqueleto robótico de la UMH permite a personas con discapacidad comer y beber de forma autónoma

exoesqueleto robótico de la UMH
Un exoesqueleto robótico de la UMH ANTONIO AMORÓS

El objetivo fundamental de este proyecto, desarrollado por primera vez a nivel mundial, es conseguir una mayor autonomía por parte de los usuarios para tareas de la vida cotidiana

Borja Campoy Fotos Y  Vídeo: Antonio Amorós 

Investigadores del Grupo de Neuroingeniería Biomédica de la Universidad Miguel Hernández(UMH) de Elche han presentado esta mañana un exoesqueleto robótico, anclado a una silla de ruedas, que asiste a personas con distintos grados de discapacidad en la ejecución autónoma de tareas de la vida diaria como comer, beber o asearse. Este proyecto, desarrollado por primera vez a nivel mundial, está coordinado por el catedrático de Ingeniería de Sistemas y Automática de la UMH, Nicolás García, y financiado por el programa Horizon 2020 de la Unión Europea con 3,4 millones de euros.

El objetivo fundamental de este proyecto, en el que participan junto a la UMH, 9 instituciones y empresas de Italia, Alemania, Gran Bretaña y España, es contribuir a la mejora de la interfaz usuario-tecnología para aumentar el grado de independencia del usuario. Durante la demostración de este exoesqueleto, un usuario ha solicitado al prototipo que le conduzca hacia la cafetería del edificio Rectorado y Consejo Social, le ha pedido al camarero un refresco y, posteriormente, se lo ha bebido.

En concreto, los investigadores han desarrollado un sistema compuesto por distintos módulos, destinados a asistir a personas con discapacidad en sus actividades de la vida diaria. Un elemento clave en este proyecto, titulado “Interfaces multimodales adaptables para ayudar a las personas con discapacidad en las actividades diarias” (en sus siglas en inglés, AIDE), es el desarrollo de una revolucionaria interfaz que permite al usuario controlar fácilmente y de forma autónoma toda esta tecnología. Gracias a esta interfaz multimodal y adaptable, es posible combinar los diferentes dispositivos que han sido desarrollados dentro del proyecto AIDE para adaptar el sistema a las necesidades del usuario. La inteligencia artificial de los algoritmos de control del sistema AIDE permiten modificar de forma adaptativa y dinámica el nivel de asistencia prestada por el exoesqueleto robótico con arreglo a las necesidades específicas del usuario.

SignAloud – guantes que transliteran el lenguaje de señas en texto y voz

POR DAVID LUMB 

Dos estudiantes universitarios de UW ganaron $ 10,000 por construir un guante cargado de gadgets que traduce los gestos del lenguaje de señas en audio.

Estos estudiantes construyeron un guante que traduce el lenguaje de señas al inglés
[FOTO: DENNIS WISE, UNIVERSIDAD DE WASHINGTON]

Un par de estudiantes de la Universidad de Washington hicieron un guante que traduce gestos en lenguaje de señas americano (ASL) al inglés y lo habla a través de oradores. El guante SignAloud les ganó un Premio de Lemelson-MIT Student de $ 10,000 y atención internacional. Ahora están descubriendo cómo perfeccionar sus dispositivos para el bien social … y asegurarse de que aprueben sus exámenes universitarios.

El guante SignAloud captura gestos ASL con sensores que miden todo, desde las coordenadas XYZ hasta la forma en que los dedos se flexionan o doblan. Los datos del sensor se envían a través de Bluetooth a una computadora cercana y se envían a algoritmos de codificación que categorizan los gestos, que se traducen al inglés y luego se los habla por el altavoz. Pero el co-creador Navid Azodi enfatiza que SignAloud todavía está en una fase de prototipo.

“Tenga en cuenta que de ninguna manera hemos capturado todo el lenguaje y no estamos cerca de eso”. [ASL] es más que solo palabras y frases, y lo sabemos. Tiene estructuras gramaticales complejas. Lo que finalmente queremos obtener es que SignAloud clasifique la mayoría del idioma “, dice Azodi.

https://www.youtube.com/watch?v=l01sdzJHCCM

Los dos creadores, Azodi y su compañero de segundo año Thomas Pryor, planearon y construyeron SignAloud en sus dormitorios y CoMotion MakerSpace de la escuela. Después de una primera versión aproximada construida en cartón y cuerda, juntaron el prototipo actual de trabajo por alrededor de cien dólares en partes.

“Muchos de los dispositivos de traducción de lenguaje de señas que ya existen no son prácticos para el uso diario. Algunos usan entrada de video, mientras que otros tienen sensores que cubren todo el brazo o el cuerpo del usuario “, dice Pryor en un comunicado de prensa de UW .

Innovar más allá de las limitaciones existentes es lo que le ganó al equipo el premio de $ 10,000, que Azodi no está seguro de cómo van a gastar. El dinero podría ayudarles a pagar su matrícula o tal vez incluso conseguirles una buena cena, Azodi bromea, pero refinar su dispositivo es la máxima prioridad. Ambos están motivados por las posibilidades de SignAloud, como un dispositivo de entrada y una herramienta de empoderamiento.

“La comunicación es un derecho humano fundamental”, dice Azodi, cuya experiencia personal ayudó a informar la herramienta. “Cuando era joven, en realidad no hablé durante unos siete años de mi vida. Tenía siete años cuando finalmente comencé a hablar. Tuve esa barrera de comunicación por una buena cantidad de tiempo “.

Azodi y Pryor se conocieron cuando eran novatos. Compartieron el deseo de devolverle algo al mundo utilizando sus talentos de ingeniería y su considerable experiencia . Azodi ha sido pasante de sistemas para la NASA, un líder tecnológico para UW Information Technology y un representante del campus para Apple; Pryor ha tenido pasantías en Raytheon y Boeing, es investigador de pregrado en el Laboratorio de estructuras compuestas y es un líder de software en el equipo de robótica de Husky.

Antes de compilar la próxima versión de SignAloud, Azodi y Pryor van a considerar las críticas que recibieron a medida que las noticias sobre su subvención se volvieron globales. Azodi lamenta que el dispositivo fue retratado como una herramienta que hablaría por las personas que no pueden hablar.

[SignAloud]
FOTO: DANIEL KIM, THE DAILY EN LA UNIVERSIDAD DE WASHINGTON

 

“[SignAloud] no es algo que hablará por ellos. Ellos tienen una voz y hablan. Honestamente, hablan mucho más fluidamente de maneras dinámicas y hermosas utilizando sus cuerpos “, dice Azodi. “Esta es una herramienta más para romper esas barreras entre el lenguaje físico de ASL y el inglés o el español”.

SignAloud podría incluso ayudar a traducir ASL a otros idiomas, o ser utilizado como un dispositivo de entrada puro de ASL en una computadora, dice Azodi. Incluso en su estado actual, SignAloud también podría funcionar como una herramienta de enseñanza para las personas que desean aprender ASL, ya que podría darles a los estudiantes información instantánea sobre lo que realmente estaban firmando.

Teniendo en cuenta los comentarios internacionales que han recibido, Azodi está decidida a asegurarse de que el equipo haga los deberes para aprender la sintaxis profunda de ASL, algo con lo que probablemente contraten a un experto para que los ayude. Azodi y Pryor sabían que usar un dispositivo para traducir ASL sería un desafío, pero no anticiparon la dificultad que encontrarían a la hora de rastrear los matices del lenguaje. Y las críticas que recibieron después de que SignAloud fuera publicitado por la prensa los sorprendieron.

“Ninguna de mis experiencias previas puede compararse con ser puesto en el punto de mira nacional y tener personas en todo el mundo lanzando sus críticas y puntos de vista sobre él. Me abrió los ojos a mucho más “, dice Azodi. “Ese proceso de aprendizaje fue uno de, si no la experiencia más humillante. La gente lo llamó un dispositivo milagroso, y no lo es. No se trata de ayudar a las personas; ellos no necesitan ayuda. Se trata de cómo la tecnología puede ser accesible e inclusiva. Es solo un medio de construir puentes y romper barreras “.

 “Somos solo un par de estudiantes universitarios”.

No toda la atención que el dúo recibió fue negativa: gracias a la cobertura de los medios, Azodi y Pryor enfrentan una gran cantidad de ofertas de asociación e inversión. Pero no están precipitándose en nada. Después de todo, como estudiantes de segundo año de la universidad de 19 años, todavía tienen que preocuparse por cosas normales. Van a progresar en SignAloud, pero tienen que trabajar en su calendario de exámenes.

“Las oportunidades para algo como esto son increíbles, ni siquiera puedo categorizar a dónde puede llegar esto. ¿Cuál es la mejor opción para nosotros usando lo que sabemos y lo que podemos hacer? “, Dice Azodi. “No te daré una respuesta definitiva. Somos solo un par de estudiantes universitarios. Acabo de tener exámenes parciales y estamos preocupados acerca de cómo llegar a nuestras mayores “.

Fuente, fastcompany.com

https://youtube/l01sdzJHCCM

 

El futuro de la tecnología debe facultar, no aislar, a las personas con discapacidad

Por Steve Tyler, Director de Tecnología de Asistencia, Leonard Cheshire

Históricamente, las necesidades de las personas con discapacidad han impulsado algunas de las innovaciones tecnológicas más importantes del mundo: más que nunca, debemos garantizar que la accesibilidad se dedique al desarrollo y al pensamiento técnico.

mujer dicapacidad auditiva usando auriculares
SLADIC A TRAVÉS DE GETTY IMAGES

Como comunidad, las personas con discapacidades tienen una capacidad asombrosa para negociar creativamente los inmensos desafíos planteados por entornos inaccesibles.

Desde un usuario ciego descubriendo cómo usar los sistemas de menú inaccesibles de los productos cotidianos escuchando ruidos y pitidos que a menudo son insignificantes para los demás, hasta un niño que usa la boca para sostener un bolígrafo para escribir, las personas con discapacidad tienden a ser buenas encontrar formas únicas de trabajar, a pesar del entorno en el que están operando.

En algunos casos, los grandes diseños provienen de las necesidades de las personas, a veces especializadas, a veces convencionales. En el mejor de los casos, el diseño bien ejecutado de los productos cotidianos tiene en cuenta las necesidades de nuestra diversa raza humana, o al menos parte de ella. Pero lamentablemente, este no es siempre el caso.

Parece que, cada vez más, las necesidades de las personas con discapacidad no se tienen en cuenta cuando se trata del diseño de nuevas tecnologías. Esto a pesar del hecho de que el número de personas con discapacidades es bien conocido: una de cada cinco personas en el Reino Unido se ven afectadas por la discapacidad. También sabemos que la discapacidad adquirida, como resultado de vivir más tiempo, está en aumento.

 Históricamente, las necesidades de las personas con discapacidad han impulsado algunas de las mayores innovaciones tecnológicas del mundo.

Pellegrino Turri, un inventor del siglo XIX, desarrolló uno de los primeros dispositivos mecánicos que permitía a su novia ciega poder escribir cartas sin la necesidad de contar con un escriba para que escribiera para ella. Nació la máquina de escribir, seguida de la entrega del teclado qwerty: siempre presente hoy, incluso en nuestros dispositivos con pantalla táctil.

Ray Kurzweil es uno de los primeros en haber desarrollado una “máquina de lectura para ciegos”, un dispositivo de tamaño no similar al de un frigorífico de finales de la década de 1970, que utilizaba el habla sintética para leer textos que podían escanearse. Hoy, estos sistemas de OCR están en todos los escritorios. La última entrega de Ray, una aplicación para teléfonos móviles, ofrece instrucciones de orientación para garantizar que una persona ciega capture el documento correctamente con la cámara.

El fonógrafo, precursor del gramófono y todo lo que vino después, se desarrolló con el dictado de cartas y libros parlantes para las personas ciegas como las dos principales posibilidades para su uso.

Desde el contraste de colores hasta los clasificadores de calcetines, la lista es larga, donde a través de la necesidad, una idea de diseño ha sido desencadenada por una necesidad real y traducida al uso cotidiano general.

Hoy, como comunidad de discapacitados nos beneficiamos con las últimas tecnologías: soluciones de lectura de pantalla, controles de interruptor, control visual, “teclas adhesivas” y conceptos muy nuevos como la activación cerebral o el uso de simulaciones de realidad virtual para ayudar a las personas con autismo en la exposición controlada a entornos que ellos conocen será un desafío para ellos. Estos y muchos más han sido duramente ganados, a menudo con el apoyo de defensores clave de la compañía, legislación y, simplemente, una gran idea.

Sin embargo, hay áreas de la vida que, desde el punto de vista de la accesibilidad, siguen siendo ilusorias. A menudo, las ideas tradicionales de marketing ven la discapacidad como demasiado complicada, demasiado difícil de alcanzar o demasiado “nicho”.

Si estoy buscando una lavadora o un equipo de cocina que pueda usar, por ejemplo, lo que necesito no siempre está disponible. Si me conformaré con un equipo inaccesible, el fabricante continuará pensando que el producto es un éxito. Pero negarse a comprar el producto no hará más que confundir al dependiente. Hacer que nuestras voces sean escuchadas no siempre es fácil. Necesitamos que los fabricantes consideren la discapacidad desde el comienzo de sus diseños, para garantizar que sus productos sean accesibles.

De cara al futuro, especialmente en el mundo de la educación y el trabajo, abordamos uno de los elementos esenciales que nos hacen humanos: la inteligencia. Estamos en el camino de crear máquinas inteligentes, robots, sistemas de entrega y autos sin conductor. La estructura misma de cómo funciona nuestra economía y de qué se trata el esfuerzo humano se transformará.

Más que nunca, debemos asegurarnos de que la accesibilidad esté dedicada al desarrollo y pensamiento técnico. No podemos darnos el lujo de perder las victorias que tanto nos costó conseguir, ni podemos darnos el lujo de confiar en los pocos que se enfrentan al desafío.

Nosotros, la comunidad de personas con discapacidad, debemos ser claros y estar unificados en torno a nuestras necesidades, y debemos reinventar nuestros métodos para hacer que la sociedad rinda cuentas sobre la accesibilidad. La tecnología tiene el poder de cambiar las vidas de las personas con discapacidad. Debemos aprovechar esto para asegurar que todos se beneficien de los rápidos avances en la tecnología.

Fuente huffingtonpost.co.uk

 

Estos artilugios podrían transformar la vida de las personas con discapacidad visual

 Audifonos eSight Vision Assistance
La compañía canadiense eSight ha producido unos auriculares para ayudar a las personas con impedimentos visuales.

“Hace años, no podía hacer cosas financieras sin ayuda”, dijo Mario Percinic, un profesional ciego de IT y experto en accesibilidad.

“Ahora uso un lector de pantalla con mi banca en línea”, dijo Percinic, quien es coanfitrión de un podcast sobre tecnología y accesibilidad llamado EBU Access Cast.

Las aplicaciones, incluida una que reconoce el dinero, son una parte esencial de la vida cotidiana de Percinic, y él cree que los teléfonos inteligentes son “una pieza de tecnología que una persona con discapacidad no puede vivir sin”.

Y los teléfonos inteligentes parecen dispuestos a seguir ofreciendo nuevos servicios a las personas con discapacidad visual.

Wayfindr, una subsidiaria de la Royal Society for Blind Children (RSBC), sin fines de lucro con sede en Londres, ha desarrollado un estándar de referencia para usar dispositivos móviles para ayudar a las personas a navegar en espacios interiores.

Usando estas pautas, Wayfindr trabaja con proveedores de transporte, centros comerciales y atracciones para los visitantes para ayudarlos a introducir “turn by turn indoor navigation” para garantizar la movilidad independiente de las personas con discapacidades visuales.

Aplicación Wayfindr
La aplicación Wayfindr proporciona navegación en interiores.

Ola de wearables

Más allá de los teléfonos inteligentes, la nueva tecnología portátil podría ser un cambio de vida para las personas con discapacidad visual.

La compañía israelí OrCam lanzó la segunda versión de su dispositivo para ayudar a las personas con discapacidad visual a fines del año pasado.

El OrCam MyEye 2.0, que pesa solo 22 gramos, es un dispositivo portátil que se sujeta a cualquier par de gafas. Su cámara inteligente captura información de texto, códigos de barras y caras y convierte la información de forma instantánea en palabras pronunciadas en el oído del usuario.

El dispositivo admite casi 20 idiomas, se vende por alrededor de $ 4,500 y actualmente está disponible en más de 20 países. Para algunas de las “decenas de miles de usuarios”, los costos están cubiertos, o parcialmente cubiertos, por aseguradoras u organizaciones de veteranos, explicó Ziv Aviram, director ejecutivo y cofundador de OrCam.

Aviram dijo que el dispositivo también puede reconocer dinero, números de bus y colores. “Todo se hace en tiempo real y fuera de línea, por lo tanto, nuestros usuarios tienen total privacidad”, dijo.

OrCam MyEye

 

OrCam planea introducir una función de “discurso a texto” más adelante este año.

“Los usuarios podrán formularle preguntas al dispositivo, pedirle que busque información específica en un periódico, por ejemplo, o pedirle que lea los titulares”, dijo Aviram. “Podrán señalar un menú y preguntar al dispositivo qué tipo de comida está disponible”.

Un campo de juego nivelado

La compañía canadiense eSight lanzó su auricular de asistencia visual el año pasado.

“Está diseñado para ser utilizado como un par de gafas, y el usuario elige cuándo usar el dispositivo”, explicó Jeff Fenton, director de alcance y comunicaciones de eSight.

El dispositivo está montado con una cámara digital que captura imágenes en vivo y las presenta frente a los ojos del usuario.

Se vende por $ 9,995, pero eSight ofrece opciones de pago y un programa de asequibilidad para ayudar a más personas a acceder al dispositivo.

“Todo lo que necesita está en el dispositivo. No es necesario conectarse a Internet para usarlo”, dijo Fenton, quien agregó que el dispositivo no recopila datos de los usuarios.

“Este tipo de tecnología realmente nivela el campo de juego para las personas con discapacidad visual”, dijo.

Fuente money.cnn.com

 

Firefox obtiene un cambio de pestaña más rápido, una nueva herramienta de accesibilidad para desarrolladores

Por Frederic Lardinois 

Primer plano de un panda rojo mirando lejos

Mozilla  lanzó la versión 61 de su navegador Firefox . Por ahora, no es ningún secreto que Firefox vuelve a ser un serio competidor del navegador Chrome de Google y, aunque la nueva versión no ofrece nuevas funciones innovadoras, todas las nuevas mejoras y herramientas de Firefox 61 son buenos ejemplos de por qué Firefox vale la pena intentarlo.

Dos de las nuevas funciones se centran en la velocidad, algo que Firefox estaba faltando por un tiempo, pero ahora ofrece mucho.

El primero de ellos es el calentamiento de pestañas, lo que esencialmente hace que el cambio entre pestañas sea más rápido porque Firefox ya comienza de forma preventiva a cargar una pestaña (después de un pequeño retraso) cuando estás sobre ella. Una vez que hagas clic en esa pestaña, la mayor parte del renderizado ya se habrá realizado, por lo que cambiar entre pestañas ahora parece más rápido.

La otra característica nueva relacionada con el rendimiento es ‘retained display lists.’ Cada vez que Firefox procesa una página, crea una lista de visualización que reúne los elementos de alto nivel como bordes, fondos y texto que deben mostrarse en la pantalla y luego los organiza de acuerdo con las reglas de pintura de CSS. Originalmente, Firefox crearía una nueva lista cada vez que cambiara la pantalla, tal vez porque se desplazó hacia abajo, por ejemplo. Con pantallas de alta resolución y sitios web complejos, ese proceso podría llevar un tiempo (aunque “un tiempo” en este contexto significa 4 o 5 milisegundos). En el transcurso de los últimos meses, el equipo de Firefox ha reconstruido partes de este sistema para garantizar que no sea necesario reconstruir esta lista cada vez, lo que ocasionó una reducción significativa de los tiempos de mostrar la página.

web-page-context-menu

Otra nueva característica importante de Firefox para los desarrolladores es el Inspector de herramientas de accesibilidad, que es parte del conjunto integrado de herramientas de desarrollo en el navegador. La idea aquí es proporcionar a los desarrolladores una visión más clara de cómo el navegador podría exponer información a personas con impedimentos visuales, por ejemplo, para que los desarrolladores puedan asegurarse de que los lectores de pantalla trabajen en sus sitios. Esta herramienta está desactivada de manera predeterminada porque tiene un poco de impacto en el rendimiento y la memoria, pero es lo suficientemente fácil de habilitar en las herramientas de desarrollo.

Puede leer un poco más sobre toda la información que expone aquí .

Como es habitual, hay muchos otros ajustes en esta versión (incluida la capacidad de WebExtensions para ocultar pestañas y una forma más sencilla de agregar motores de búsqueda a la barra de direcciones). Puede encontrar un desglose completo de cada cambio aquí .