Exoesqueleto robótico de la UMH permite a personas con discapacidad comer y beber de forma autónoma

exoesqueleto robótico de la UMH
Un exoesqueleto robótico de la UMH ANTONIO AMORÓS

El objetivo fundamental de este proyecto, desarrollado por primera vez a nivel mundial, es conseguir una mayor autonomía por parte de los usuarios para tareas de la vida cotidiana

Borja Campoy Fotos Y  Vídeo: Antonio Amorós 

Investigadores del Grupo de Neuroingeniería Biomédica de la Universidad Miguel Hernández(UMH) de Elche han presentado esta mañana un exoesqueleto robótico, anclado a una silla de ruedas, que asiste a personas con distintos grados de discapacidad en la ejecución autónoma de tareas de la vida diaria como comer, beber o asearse. Este proyecto, desarrollado por primera vez a nivel mundial, está coordinado por el catedrático de Ingeniería de Sistemas y Automática de la UMH, Nicolás García, y financiado por el programa Horizon 2020 de la Unión Europea con 3,4 millones de euros.

El objetivo fundamental de este proyecto, en el que participan junto a la UMH, 9 instituciones y empresas de Italia, Alemania, Gran Bretaña y España, es contribuir a la mejora de la interfaz usuario-tecnología para aumentar el grado de independencia del usuario. Durante la demostración de este exoesqueleto, un usuario ha solicitado al prototipo que le conduzca hacia la cafetería del edificio Rectorado y Consejo Social, le ha pedido al camarero un refresco y, posteriormente, se lo ha bebido.

En concreto, los investigadores han desarrollado un sistema compuesto por distintos módulos, destinados a asistir a personas con discapacidad en sus actividades de la vida diaria. Un elemento clave en este proyecto, titulado “Interfaces multimodales adaptables para ayudar a las personas con discapacidad en las actividades diarias” (en sus siglas en inglés, AIDE), es el desarrollo de una revolucionaria interfaz que permite al usuario controlar fácilmente y de forma autónoma toda esta tecnología. Gracias a esta interfaz multimodal y adaptable, es posible combinar los diferentes dispositivos que han sido desarrollados dentro del proyecto AIDE para adaptar el sistema a las necesidades del usuario. La inteligencia artificial de los algoritmos de control del sistema AIDE permiten modificar de forma adaptativa y dinámica el nivel de asistencia prestada por el exoesqueleto robótico con arreglo a las necesidades específicas del usuario.

SignAloud – guantes que transliteran el lenguaje de señas en texto y voz

POR DAVID LUMB 

Dos estudiantes universitarios de UW ganaron $ 10,000 por construir un guante cargado de gadgets que traduce los gestos del lenguaje de señas en audio.

Estos estudiantes construyeron un guante que traduce el lenguaje de señas al inglés
[FOTO: DENNIS WISE, UNIVERSIDAD DE WASHINGTON]

Un par de estudiantes de la Universidad de Washington hicieron un guante que traduce gestos en lenguaje de señas americano (ASL) al inglés y lo habla a través de oradores. El guante SignAloud les ganó un Premio de Lemelson-MIT Student de $ 10,000 y atención internacional. Ahora están descubriendo cómo perfeccionar sus dispositivos para el bien social … y asegurarse de que aprueben sus exámenes universitarios.

El guante SignAloud captura gestos ASL con sensores que miden todo, desde las coordenadas XYZ hasta la forma en que los dedos se flexionan o doblan. Los datos del sensor se envían a través de Bluetooth a una computadora cercana y se envían a algoritmos de codificación que categorizan los gestos, que se traducen al inglés y luego se los habla por el altavoz. Pero el co-creador Navid Azodi enfatiza que SignAloud todavía está en una fase de prototipo.

“Tenga en cuenta que de ninguna manera hemos capturado todo el lenguaje y no estamos cerca de eso”. [ASL] es más que solo palabras y frases, y lo sabemos. Tiene estructuras gramaticales complejas. Lo que finalmente queremos obtener es que SignAloud clasifique la mayoría del idioma “, dice Azodi.

https://www.youtube.com/watch?v=l01sdzJHCCM

Los dos creadores, Azodi y su compañero de segundo año Thomas Pryor, planearon y construyeron SignAloud en sus dormitorios y CoMotion MakerSpace de la escuela. Después de una primera versión aproximada construida en cartón y cuerda, juntaron el prototipo actual de trabajo por alrededor de cien dólares en partes.

“Muchos de los dispositivos de traducción de lenguaje de señas que ya existen no son prácticos para el uso diario. Algunos usan entrada de video, mientras que otros tienen sensores que cubren todo el brazo o el cuerpo del usuario “, dice Pryor en un comunicado de prensa de UW .

Innovar más allá de las limitaciones existentes es lo que le ganó al equipo el premio de $ 10,000, que Azodi no está seguro de cómo van a gastar. El dinero podría ayudarles a pagar su matrícula o tal vez incluso conseguirles una buena cena, Azodi bromea, pero refinar su dispositivo es la máxima prioridad. Ambos están motivados por las posibilidades de SignAloud, como un dispositivo de entrada y una herramienta de empoderamiento.

“La comunicación es un derecho humano fundamental”, dice Azodi, cuya experiencia personal ayudó a informar la herramienta. “Cuando era joven, en realidad no hablé durante unos siete años de mi vida. Tenía siete años cuando finalmente comencé a hablar. Tuve esa barrera de comunicación por una buena cantidad de tiempo “.

Azodi y Pryor se conocieron cuando eran novatos. Compartieron el deseo de devolverle algo al mundo utilizando sus talentos de ingeniería y su considerable experiencia . Azodi ha sido pasante de sistemas para la NASA, un líder tecnológico para UW Information Technology y un representante del campus para Apple; Pryor ha tenido pasantías en Raytheon y Boeing, es investigador de pregrado en el Laboratorio de estructuras compuestas y es un líder de software en el equipo de robótica de Husky.

Antes de compilar la próxima versión de SignAloud, Azodi y Pryor van a considerar las críticas que recibieron a medida que las noticias sobre su subvención se volvieron globales. Azodi lamenta que el dispositivo fue retratado como una herramienta que hablaría por las personas que no pueden hablar.

[SignAloud]
FOTO: DANIEL KIM, THE DAILY EN LA UNIVERSIDAD DE WASHINGTON

 

“[SignAloud] no es algo que hablará por ellos. Ellos tienen una voz y hablan. Honestamente, hablan mucho más fluidamente de maneras dinámicas y hermosas utilizando sus cuerpos “, dice Azodi. “Esta es una herramienta más para romper esas barreras entre el lenguaje físico de ASL y el inglés o el español”.

SignAloud podría incluso ayudar a traducir ASL a otros idiomas, o ser utilizado como un dispositivo de entrada puro de ASL en una computadora, dice Azodi. Incluso en su estado actual, SignAloud también podría funcionar como una herramienta de enseñanza para las personas que desean aprender ASL, ya que podría darles a los estudiantes información instantánea sobre lo que realmente estaban firmando.

Teniendo en cuenta los comentarios internacionales que han recibido, Azodi está decidida a asegurarse de que el equipo haga los deberes para aprender la sintaxis profunda de ASL, algo con lo que probablemente contraten a un experto para que los ayude. Azodi y Pryor sabían que usar un dispositivo para traducir ASL sería un desafío, pero no anticiparon la dificultad que encontrarían a la hora de rastrear los matices del lenguaje. Y las críticas que recibieron después de que SignAloud fuera publicitado por la prensa los sorprendieron.

“Ninguna de mis experiencias previas puede compararse con ser puesto en el punto de mira nacional y tener personas en todo el mundo lanzando sus críticas y puntos de vista sobre él. Me abrió los ojos a mucho más “, dice Azodi. “Ese proceso de aprendizaje fue uno de, si no la experiencia más humillante. La gente lo llamó un dispositivo milagroso, y no lo es. No se trata de ayudar a las personas; ellos no necesitan ayuda. Se trata de cómo la tecnología puede ser accesible e inclusiva. Es solo un medio de construir puentes y romper barreras “.

 “Somos solo un par de estudiantes universitarios”.

No toda la atención que el dúo recibió fue negativa: gracias a la cobertura de los medios, Azodi y Pryor enfrentan una gran cantidad de ofertas de asociación e inversión. Pero no están precipitándose en nada. Después de todo, como estudiantes de segundo año de la universidad de 19 años, todavía tienen que preocuparse por cosas normales. Van a progresar en SignAloud, pero tienen que trabajar en su calendario de exámenes.

“Las oportunidades para algo como esto son increíbles, ni siquiera puedo categorizar a dónde puede llegar esto. ¿Cuál es la mejor opción para nosotros usando lo que sabemos y lo que podemos hacer? “, Dice Azodi. “No te daré una respuesta definitiva. Somos solo un par de estudiantes universitarios. Acabo de tener exámenes parciales y estamos preocupados acerca de cómo llegar a nuestras mayores “.

Fuente, fastcompany.com

https://youtube/l01sdzJHCCM

 

Desde la traducción de audífonos hasta guantes de lenguaje de señas, increíble tecnología de asistencia.

Por @lukedormehl

Uso de audifonos en mujer PCD

Desde la firma de los brazos del robot hasta los audífonos que leen la mente, los próximos años van a ser bastante asombrosos para la tecnología de accesibilidad si esta lista es algo por lo que seguir. Estos son algunos de los proyectos tecnológicos más impresionantes que hemos encontrado en esta área.

PROYECTO ASLAN

Firmar es muy bueno, pero como cualquier idioma, no es muy bueno si un lado de la conversación no lo dice. Ahí es donde entra en juego un proyecto de robótica de varios años de investigadores de la Universidad de Amberes de Bélgica.

Que han desarrollado una mano robótica impresa en 3D capaz de traducir palabras habladas y escritas en gestos de lenguaje de señas. El dispositivo reconoce estas palabras usando una cámara web, y luego las comunica al usuario a través del “deletreo de dedos”, un modo de lenguaje de señas que explica las palabras letra por letra con gestos con una sola mano.

Aunque no está disponible actualmente, la mano del robot del Proyecto Aslan se puede imprimir en 3D por solo unos pocos cientos de dólares, y promete ser lo suficientemente pequeña como para caber en una mochila.

CÁMARAS QUE PUEDEN TRADUCIR FIRMA

Un robot que puede convertir el habla en lenguaje de señas es bueno, pero para que tenga lugar una conversación completa necesita tecnología que pueda convertir el lenguaje de señas en voz o texto, y voz en texto o lenguaje de señas, y hacer todo esto en tiempo real. -hora.Eso es lo que desarrolló una startup de Dallas llamada KinTrans , con una cámara 3D y un micrófono acompañante que puede determinar lo que se dice o firma, y ​​luego traducirlo de forma rápida y precisa para la otra parte.

Según sus creadores, el sistema ya puede reconocer miles de palabras firmadas con una precisión de alrededor del 98 por ciento. Puede manejar múltiples idiomas, también.

GUANTES INTELIGENTES

¿No te gusta la idea de ser visto por una cámara? No hay problema. En la Universidad de California en San Diego, los investigadores han desarrollado guantes inteligentes de bajo costo capaces de traducir automáticamente el lenguaje de señas americano (ASL) al texto digital que aparece en una computadora o teléfono inteligente correspondiente. No se requiere cámara.

Para usar el guante, el usuario simplemente firma las letras en el alfabeto ASL, que luego se reconocen debido a las variaciones en la resistencia eléctrica. Al igual que Project Aslan, una de las mejores características de esta solución es su bajo precio, por lo que es una solución potencialmente asequible para un problema desafiante. Los componentes en el guante inteligente suman menos de $ 100 en costo.

Si bien todavía es un proyecto de investigación por ahora, podemos imaginar que ese precio baje aún más con la producción en masa.

TECNOLOGÍA DE TRANSCRIPCIÓN DE NUEVA GENERACIÓN

Gracias a los avances en el reconocimiento de voz, la tecnología de voz a texto ha ido mejorando durante años. Pero no siempre es útil para situaciones en las que hay varias personas hablando, como en una configuración de conversación grupal.

Una nueva campaña de Indiegogo llamada SpeakSee , creada por empresarios con sede en los Países Bajos, utiliza micrófonos con clip individuales y tecnología beamforming para aislar el habla de las personas y filtrar el ruido de fondo.

Como resultado, las conversaciones se transforman en transcripciones de guiones , en las que diferentes oradores se resaltan en colores únicos. Estos se pueden leer en una tableta o teléfono inteligente que los acompaña.

AUDÍFONOS CON LECTURA DE ONDAS CEREBRALES

Imagínese si un audífono fue capaz de determinar en qué sonido está tratando de enfocarse y magnificar solo ese audio, al tiempo que calma todo lo demás.

Eso es lo que los investigadores de la Facultad de Ingeniería y Ciencias Aplicadas de la Universidad de Columbia han estado trabajando con un nuevo “audífono cognitivo”,diseñado para ayudar a los usuarios en situaciones como habitaciones atestadas.

El dispositivo funciona monitoreando la actividad cerebral de los usuarios y luego usando una red neuronal profunda para determinar en qué voz del hablante se está concentrando el oyente. En este momento, todavía es un proyecto de investigación, pero esto podría ser transformador cuando llegue al mercado.

OÍDOS SOLARES

Hay cerca de 400 millones de personas en todo el mundo con una discapacidad relacionada con la pérdida auditiva. De estos, más de la mitad vive en países con menores niveles de ingreso a lugares como Estados Unidos. Ese es un problema cuando se trata de audífonos, ya que el costo de los dispositivos y sus baterías puede estar fuera del alcance de muchas personas que de lo contrario podrían ayudar.

Como su nombre lo indica, Solar Ear es un audífono alimentado con energía solar, cuyas baterías están diseñadas para durar de 2 a 3 años, en comparación con los 7 a 10 días de una batería común. Es considerablemente más barato que los audífonos regulares, también.

TRADUCIENDO AUDÍFONOS

Los audífonos permiten que los usuarios sordos o con problemas de audición puedan escuchar las voces de otras personas directamente en sus oídos. Pero, ¿y si pudiera realizar un poco de magia computacional en el camino, y usar la traducción automática para, por ejemplo, transformar las palabras de un hablante nativo de alemán al inglés? Esa es la tecnología que sin duda se convertirá en audífonos de alta gama durante los próximos años.

Ya ha habido algunas demostraciones bastante impresionantes en la forma del Auricular de traducción piloto de Waverly Labs y el TranslateOne2One impulsado por IBM Watson . De repente, los audífonos son un punto de mucho más útil. (De repente, los audífonos están a punto de ser mucho más útiles).

¿ESCUCHANDO A TRAVÉS DE TU … PIEL?

La mayoría de los audífonos son, en nuestra experiencia, abrumadoramente basados ​​en los oídos. Un proyecto de investigación de neurocientíficos en Baylor College of Medicine en Houston, Texas, quiere cambiar eso con la ayuda de un chaleco que les permite a las personas sordas “oír” a través de su piel .

El dispositivo recoge el audio entrante a través del teléfono inteligente de los usuarios y luego lo traduce en vibraciones específicas que el usuario puede sentir en su piel. La esperanza es que, con el tiempo, los usuarios aprendan a procesar estas vibraciones como información casi de la misma manera que una persona ciega podría aprender a leer a través de los toques táctiles de braille.

Hasta donde sabemos, este es un proyecto de investigación en curso, pero una campaña de Kickstarter hace unos años sugiere que el objetivo es desarrollar un producto comercial al final.

Fuente, digitaltrends.com

 

El futuro de la tecnología debe facultar, no aislar, a las personas con discapacidad

Por Steve Tyler, Director de Tecnología de Asistencia, Leonard Cheshire

Históricamente, las necesidades de las personas con discapacidad han impulsado algunas de las innovaciones tecnológicas más importantes del mundo: más que nunca, debemos garantizar que la accesibilidad se dedique al desarrollo y al pensamiento técnico.

mujer dicapacidad auditiva usando auriculares
SLADIC A TRAVÉS DE GETTY IMAGES

Como comunidad, las personas con discapacidades tienen una capacidad asombrosa para negociar creativamente los inmensos desafíos planteados por entornos inaccesibles.

Desde un usuario ciego descubriendo cómo usar los sistemas de menú inaccesibles de los productos cotidianos escuchando ruidos y pitidos que a menudo son insignificantes para los demás, hasta un niño que usa la boca para sostener un bolígrafo para escribir, las personas con discapacidad tienden a ser buenas encontrar formas únicas de trabajar, a pesar del entorno en el que están operando.

En algunos casos, los grandes diseños provienen de las necesidades de las personas, a veces especializadas, a veces convencionales. En el mejor de los casos, el diseño bien ejecutado de los productos cotidianos tiene en cuenta las necesidades de nuestra diversa raza humana, o al menos parte de ella. Pero lamentablemente, este no es siempre el caso.

Parece que, cada vez más, las necesidades de las personas con discapacidad no se tienen en cuenta cuando se trata del diseño de nuevas tecnologías. Esto a pesar del hecho de que el número de personas con discapacidades es bien conocido: una de cada cinco personas en el Reino Unido se ven afectadas por la discapacidad. También sabemos que la discapacidad adquirida, como resultado de vivir más tiempo, está en aumento.

 Históricamente, las necesidades de las personas con discapacidad han impulsado algunas de las mayores innovaciones tecnológicas del mundo.

Pellegrino Turri, un inventor del siglo XIX, desarrolló uno de los primeros dispositivos mecánicos que permitía a su novia ciega poder escribir cartas sin la necesidad de contar con un escriba para que escribiera para ella. Nació la máquina de escribir, seguida de la entrega del teclado qwerty: siempre presente hoy, incluso en nuestros dispositivos con pantalla táctil.

Ray Kurzweil es uno de los primeros en haber desarrollado una “máquina de lectura para ciegos”, un dispositivo de tamaño no similar al de un frigorífico de finales de la década de 1970, que utilizaba el habla sintética para leer textos que podían escanearse. Hoy, estos sistemas de OCR están en todos los escritorios. La última entrega de Ray, una aplicación para teléfonos móviles, ofrece instrucciones de orientación para garantizar que una persona ciega capture el documento correctamente con la cámara.

El fonógrafo, precursor del gramófono y todo lo que vino después, se desarrolló con el dictado de cartas y libros parlantes para las personas ciegas como las dos principales posibilidades para su uso.

Desde el contraste de colores hasta los clasificadores de calcetines, la lista es larga, donde a través de la necesidad, una idea de diseño ha sido desencadenada por una necesidad real y traducida al uso cotidiano general.

Hoy, como comunidad de discapacitados nos beneficiamos con las últimas tecnologías: soluciones de lectura de pantalla, controles de interruptor, control visual, “teclas adhesivas” y conceptos muy nuevos como la activación cerebral o el uso de simulaciones de realidad virtual para ayudar a las personas con autismo en la exposición controlada a entornos que ellos conocen será un desafío para ellos. Estos y muchos más han sido duramente ganados, a menudo con el apoyo de defensores clave de la compañía, legislación y, simplemente, una gran idea.

Sin embargo, hay áreas de la vida que, desde el punto de vista de la accesibilidad, siguen siendo ilusorias. A menudo, las ideas tradicionales de marketing ven la discapacidad como demasiado complicada, demasiado difícil de alcanzar o demasiado “nicho”.

Si estoy buscando una lavadora o un equipo de cocina que pueda usar, por ejemplo, lo que necesito no siempre está disponible. Si me conformaré con un equipo inaccesible, el fabricante continuará pensando que el producto es un éxito. Pero negarse a comprar el producto no hará más que confundir al dependiente. Hacer que nuestras voces sean escuchadas no siempre es fácil. Necesitamos que los fabricantes consideren la discapacidad desde el comienzo de sus diseños, para garantizar que sus productos sean accesibles.

De cara al futuro, especialmente en el mundo de la educación y el trabajo, abordamos uno de los elementos esenciales que nos hacen humanos: la inteligencia. Estamos en el camino de crear máquinas inteligentes, robots, sistemas de entrega y autos sin conductor. La estructura misma de cómo funciona nuestra economía y de qué se trata el esfuerzo humano se transformará.

Más que nunca, debemos asegurarnos de que la accesibilidad esté dedicada al desarrollo y pensamiento técnico. No podemos darnos el lujo de perder las victorias que tanto nos costó conseguir, ni podemos darnos el lujo de confiar en los pocos que se enfrentan al desafío.

Nosotros, la comunidad de personas con discapacidad, debemos ser claros y estar unificados en torno a nuestras necesidades, y debemos reinventar nuestros métodos para hacer que la sociedad rinda cuentas sobre la accesibilidad. La tecnología tiene el poder de cambiar las vidas de las personas con discapacidad. Debemos aprovechar esto para asegurar que todos se beneficien de los rápidos avances en la tecnología.

Fuente huffingtonpost.co.uk

 

Firefox obtiene un cambio de pestaña más rápido, una nueva herramienta de accesibilidad para desarrolladores

Por Frederic Lardinois 

Primer plano de un panda rojo mirando lejos

Mozilla  lanzó la versión 61 de su navegador Firefox . Por ahora, no es ningún secreto que Firefox vuelve a ser un serio competidor del navegador Chrome de Google y, aunque la nueva versión no ofrece nuevas funciones innovadoras, todas las nuevas mejoras y herramientas de Firefox 61 son buenos ejemplos de por qué Firefox vale la pena intentarlo.

Dos de las nuevas funciones se centran en la velocidad, algo que Firefox estaba faltando por un tiempo, pero ahora ofrece mucho.

El primero de ellos es el calentamiento de pestañas, lo que esencialmente hace que el cambio entre pestañas sea más rápido porque Firefox ya comienza de forma preventiva a cargar una pestaña (después de un pequeño retraso) cuando estás sobre ella. Una vez que hagas clic en esa pestaña, la mayor parte del renderizado ya se habrá realizado, por lo que cambiar entre pestañas ahora parece más rápido.

La otra característica nueva relacionada con el rendimiento es ‘retained display lists.’ Cada vez que Firefox procesa una página, crea una lista de visualización que reúne los elementos de alto nivel como bordes, fondos y texto que deben mostrarse en la pantalla y luego los organiza de acuerdo con las reglas de pintura de CSS. Originalmente, Firefox crearía una nueva lista cada vez que cambiara la pantalla, tal vez porque se desplazó hacia abajo, por ejemplo. Con pantallas de alta resolución y sitios web complejos, ese proceso podría llevar un tiempo (aunque “un tiempo” en este contexto significa 4 o 5 milisegundos). En el transcurso de los últimos meses, el equipo de Firefox ha reconstruido partes de este sistema para garantizar que no sea necesario reconstruir esta lista cada vez, lo que ocasionó una reducción significativa de los tiempos de mostrar la página.

web-page-context-menu

Otra nueva característica importante de Firefox para los desarrolladores es el Inspector de herramientas de accesibilidad, que es parte del conjunto integrado de herramientas de desarrollo en el navegador. La idea aquí es proporcionar a los desarrolladores una visión más clara de cómo el navegador podría exponer información a personas con impedimentos visuales, por ejemplo, para que los desarrolladores puedan asegurarse de que los lectores de pantalla trabajen en sus sitios. Esta herramienta está desactivada de manera predeterminada porque tiene un poco de impacto en el rendimiento y la memoria, pero es lo suficientemente fácil de habilitar en las herramientas de desarrollo.

Puede leer un poco más sobre toda la información que expone aquí .

Como es habitual, hay muchos otros ajustes en esta versión (incluida la capacidad de WebExtensions para ocultar pestañas y una forma más sencilla de agregar motores de búsqueda a la barra de direcciones). Puede encontrar un desglose completo de cada cambio aquí .