El objetivo fundamental de este proyecto, desarrollado por primera vez a nivel mundial, es conseguir una mayor autonomía por parte de los usuarios para tareas de la vida cotidiana
Investigadores del Grupo de Neuroingeniería Biomédica de la Universidad Miguel Hernández(UMH) de Elche han presentado esta mañana un exoesqueleto robótico, anclado a una silla de ruedas, que asiste a personas con distintos grados de discapacidad en la ejecución autónoma de tareas de la vida diaria como comer, beber o asearse. Este proyecto, desarrollado por primera vez a nivel mundial, está coordinado por el catedrático de Ingeniería de Sistemas y Automática de la UMH, Nicolás García, y financiado por el programa Horizon 2020 de la Unión Europea con 3,4 millones de euros.
El objetivo fundamental de este proyecto, en el que participan junto a la UMH, 9 instituciones y empresas de Italia, Alemania, Gran Bretaña y España, es contribuir a la mejora de la interfaz usuario-tecnología para aumentar el grado de independencia del usuario. Durante la demostración de este exoesqueleto, un usuario ha solicitado al prototipo que le conduzca hacia la cafetería del edificio Rectorado y Consejo Social, le ha pedido al camarero un refresco y, posteriormente, se lo ha bebido.
En concreto, los investigadores han desarrollado un sistema compuesto por distintos módulos, destinados a asistir a personas con discapacidad en sus actividades de la vida diaria. Un elemento clave en este proyecto, titulado “Interfaces multimodales adaptables para ayudar a las personas con discapacidad en las actividades diarias” (en sus siglas en inglés, AIDE), es el desarrollo de una revolucionaria interfaz que permite al usuario controlar fácilmente y de forma autónoma toda esta tecnología. Gracias a esta interfaz multimodal y adaptable, es posible combinar los diferentes dispositivos que han sido desarrollados dentro del proyecto AIDE para adaptar el sistema a las necesidades del usuario. La inteligencia artificial de los algoritmos de control del sistema AIDE permiten modificar de forma adaptativa y dinámica el nivel de asistencia prestada por el exoesqueleto robótico con arreglo a las necesidades específicas del usuario.
Investigadores de la #UMH han presentado un exoesqueleto robótico que asiste a personas con distintos grados de discapacidad en la ejecución autónoma de tareas de la vida diaria como comer, beber o asearse
Además, el sistema AIDE permitirá a las personas con discapacidad mejorar la comunicación con sus familiares y amigos, mediante el uso de servicios estándar de Internet como correo electrónico, Skype, whatsapp y redes sociales (Facebook y Twitter). Asimismo, pretende mejorar el control del entorno como apagar/encender luces, la televisión, contestar una llamada telefónica o iniciarla, así como mejorar la accesibilidad del usuario al entretenimiento.
El sistema AIDE ha sido evaluado por 17 personas con distintos grados de discapacidad en la fundación Cedar en Belfast (Reino Unido) con excelentes resultados. Este proyecto de investigación comenzó el 1 de febrero de 2015 y finalizó el 31 de mayo de 2018.
Actualmente, la principal tendencia en el desarrollo de la tecnología asistencial para apoyar las actividades de la vida diaria (AVD) (movilidad, comunicación, etc.) se basa en la integración de las capacidades del usuario y las tecnologías de asistencia. Sin embargo, los dispositivos de asistencia disponibles actualmente no permiten una integración real y efectiva de usuarios con capacidades diferentes y entre las tecnologías de asistencia no existen exoesqueletos robóticos que permitan al usuario interaccionar con su entorno y realizar ellos mismos tareas como comer, beber, etc.
Aproximadamente, 80 millones de personas en la UE (una sexta parte de su población) tienen algún tipo de discapacidad. Este hecho, a menudo, implica una serie de barreras físicas, psicológicas y sociales que dificultan su participación en la vida social y económica. Según el artículo 9 de la Convención de las Naciones Unidas sobre los derechos de las personas con discapacidad, firmada por la Comisión Europea en 2010, la “accesibilidad” es un derecho básico para todas las personas con discapacidad. El objetivo de la accesibilidad es permitir que las personas con discapacidad vivan de forma independiente y participen en todos los aspectos de la vida.
¿Cree que la tecnología de asistencia para la comunidad sorda y con problemas de audición tiene que ver con sus audífonos corrientes en 2018? ¡Piensa otra vez!
Desde la firma de los brazos del robot hasta los audífonos que leen la mente, los próximos años van a ser bastante asombrosos para la tecnología de accesibilidad si esta lista es algo por lo que seguir. Estos son algunos de los proyectos tecnológicos más impresionantes que hemos encontrado en esta área.
PROYECTO ASLAN
Firmar es muy bueno, pero como cualquier idioma, no es muy bueno si un lado de la conversación no lo dice. Ahí es donde entra en juego un proyecto de robótica de varios años de investigadores de la Universidad de Amberes de Bélgica.
Que han desarrollado una mano robótica impresa en 3D capaz de traducir palabras habladas y escritas en gestos de lenguaje de señas. El dispositivo reconoce estas palabras usando una cámara web, y luego las comunica al usuario a través del “deletreo de dedos”, un modo de lenguaje de señas que explica las palabras letra por letra con gestos con una sola mano.
Aunque no está disponible actualmente, la mano del robot del Proyecto Aslan se puede imprimir en 3D por solo unos pocos cientos de dólares, y promete ser lo suficientemente pequeña como para caber en una mochila.
CÁMARAS QUE PUEDEN TRADUCIR FIRMA
Un robot que puede convertir el habla en lenguaje de señas es bueno, pero para que tenga lugar una conversación completa necesita tecnología que pueda convertir el lenguaje de señas en voz o texto, y voz en texto o lenguaje de señas, y hacer todo esto en tiempo real. -hora.Eso es lo que desarrolló una startup de Dallas llamada KinTrans , con una cámara 3D y un micrófono acompañante que puede determinar lo que se dice o firma, y luego traducirlo de forma rápida y precisa para la otra parte.
Según sus creadores, el sistema ya puede reconocer miles de palabras firmadas con una precisión de alrededor del 98 por ciento. Puede manejar múltiples idiomas, también.
GUANTES INTELIGENTES
¿No te gusta la idea de ser visto por una cámara? No hay problema. En la Universidad de California en San Diego, los investigadores han desarrollado guantes inteligentes de bajo costo capaces de traducir automáticamente el lenguaje de señas americano (ASL) al texto digital que aparece en una computadora o teléfono inteligente correspondiente. No se requiere cámara.
Para usar el guante, el usuario simplemente firma las letras en el alfabeto ASL, que luego se reconocen debido a las variaciones en la resistencia eléctrica. Al igual que Project Aslan, una de las mejores características de esta solución es su bajo precio, por lo que es una solución potencialmente asequible para un problema desafiante. Los componentes en el guante inteligente suman menos de $ 100 en costo.
Si bien todavía es un proyecto de investigación por ahora, podemos imaginar que ese precio baje aún más con la producción en masa.
TECNOLOGÍA DE TRANSCRIPCIÓN DE NUEVA GENERACIÓN
Gracias a los avances en el reconocimiento de voz, la tecnología de voz a texto ha ido mejorando durante años. Pero no siempre es útil para situaciones en las que hay varias personas hablando, como en una configuración de conversación grupal.
Una nueva campaña de Indiegogo llamada SpeakSee , creada por empresarios con sede en los Países Bajos, utiliza micrófonos con clip individuales y tecnología beamforming para aislar el habla de las personas y filtrar el ruido de fondo.
Como resultado, las conversaciones se transforman en transcripciones de guiones , en las que diferentes oradores se resaltan en colores únicos. Estos se pueden leer en una tableta o teléfono inteligente que los acompaña.
AUDÍFONOS CON LECTURA DE ONDAS CEREBRALES
Imagínese si un audífono fue capaz de determinar en qué sonido está tratando de enfocarse y magnificar solo ese audio, al tiempo que calma todo lo demás.
Eso es lo que los investigadores de la Facultad de Ingeniería y Ciencias Aplicadas de la Universidad de Columbia han estado trabajando con un nuevo “audífono cognitivo”,diseñado para ayudar a los usuarios en situaciones como habitaciones atestadas.
El dispositivo funciona monitoreando la actividad cerebral de los usuarios y luego usando una red neuronal profunda para determinar en qué voz del hablante se está concentrando el oyente. En este momento, todavía es un proyecto de investigación, pero esto podría ser transformador cuando llegue al mercado.
OÍDOS SOLARES
Hay cerca de 400 millones de personas en todo el mundo con una discapacidad relacionada con la pérdida auditiva. De estos, más de la mitad vive en países con menores niveles de ingreso a lugares como Estados Unidos. Ese es un problema cuando se trata de audífonos, ya que el costo de los dispositivos y sus baterías puede estar fuera del alcance de muchas personas que de lo contrario podrían ayudar.
Como su nombre lo indica, Solar Ear es un audífono alimentado con energía solar, cuyas baterías están diseñadas para durar de 2 a 3 años, en comparación con los 7 a 10 días de una batería común. Es considerablemente más barato que los audífonos regulares, también.
TRADUCIENDO AUDÍFONOS
Los audífonos permiten que los usuarios sordos o con problemas de audición puedan escuchar las voces de otras personas directamente en sus oídos. Pero, ¿y si pudiera realizar un poco de magia computacional en el camino, y usar la traducción automática para, por ejemplo, transformar las palabras de un hablante nativo de alemán al inglés? Esa es la tecnología que sin duda se convertirá en audífonos de alta gama durante los próximos años.
La mayoría de los audífonos son, en nuestra experiencia, abrumadoramente basados en los oídos. Un proyecto de investigación de neurocientíficos en Baylor College of Medicine en Houston, Texas, quiere cambiar eso con la ayuda de un chaleco que les permite a las personas sordas “oír” a través de su piel .
El dispositivo recoge el audio entrante a través del teléfono inteligente de los usuarios y luego lo traduce en vibraciones específicas que el usuario puede sentir en su piel. La esperanza es que, con el tiempo, los usuarios aprendan a procesar estas vibraciones como información casi de la misma manera que una persona ciega podría aprender a leer a través de los toques táctiles de braille.
Hasta donde sabemos, este es un proyecto de investigación en curso, pero una campaña de Kickstarter hace unos años sugiere que el objetivo es desarrollar un producto comercial al final.
“Hace años, no podía hacer cosas financieras sin ayuda”, dijo Mario Percinic, un profesional ciego de IT y experto en accesibilidad.
“Ahora uso un lector de pantalla con mi banca en línea”, dijo Percinic, quien es coanfitrión de un podcast sobre tecnología y accesibilidad llamado EBU Access Cast.
Las aplicaciones, incluida una que reconoce el dinero, son una parte esencial de la vida cotidiana de Percinic, y él cree que los teléfonos inteligentes son “una pieza de tecnología que una persona con discapacidad no puede vivir sin”.
Y los teléfonos inteligentes parecen dispuestos a seguir ofreciendo nuevos servicios a las personas con discapacidad visual.
Wayfindr, una subsidiaria de la Royal Society for Blind Children (RSBC), sin fines de lucro con sede en Londres, ha desarrollado un estándar de referencia para usar dispositivos móviles para ayudar a las personas a navegar en espacios interiores.
Usando estas pautas, Wayfindr trabaja con proveedores de transporte, centros comerciales y atracciones para los visitantes para ayudarlos a introducir “turn by turn indoor navigation” para garantizar la movilidad independiente de las personas con discapacidades visuales.
Ola de wearables
Más allá de los teléfonos inteligentes, la nueva tecnología portátil podría ser un cambio de vida para las personas con discapacidad visual.
La compañía israelí OrCam lanzó la segunda versión de su dispositivo para ayudar a las personas con discapacidad visual a fines del año pasado.
El OrCam MyEye 2.0, que pesa solo 22 gramos, es un dispositivo portátil que se sujeta a cualquier par de gafas. Su cámara inteligente captura información de texto, códigos de barras y caras y convierte la información de forma instantánea en palabras pronunciadas en el oído del usuario.
El dispositivo admite casi 20 idiomas, se vende por alrededor de $ 4,500 y actualmente está disponible en más de 20 países. Para algunas de las “decenas de miles de usuarios”, los costos están cubiertos, o parcialmente cubiertos, por aseguradoras u organizaciones de veteranos, explicó Ziv Aviram, director ejecutivo y cofundador de OrCam.
Aviram dijo que el dispositivo también puede reconocer dinero, números de bus y colores. “Todo se hace en tiempo real y fuera de línea, por lo tanto, nuestros usuarios tienen total privacidad”, dijo.
OrCam planea introducir una función de “discurso a texto” más adelante este año.
“Los usuarios podrán formularle preguntas al dispositivo, pedirle que busque información específica en un periódico, por ejemplo, o pedirle que lea los titulares”, dijo Aviram. “Podrán señalar un menú y preguntar al dispositivo qué tipo de comida está disponible”.
Un campo de juego nivelado
La compañía canadiense eSight lanzó su auricular de asistencia visual el año pasado.
“Está diseñado para ser utilizado como un par de gafas, y el usuario elige cuándo usar el dispositivo”, explicó Jeff Fenton, director de alcance y comunicaciones de eSight.
El dispositivo está montado con una cámara digital que captura imágenes en vivo y las presenta frente a los ojos del usuario.
Se vende por $ 9,995, pero eSight ofrece opciones de pago y un programa de asequibilidad para ayudar a más personas a acceder al dispositivo.
“Todo lo que necesita está en el dispositivo. No es necesario conectarse a Internet para usarlo”, dijo Fenton, quien agregó que el dispositivo no recopila datos de los usuarios.
“Este tipo de tecnología realmente nivela el campo de juego para las personas con discapacidad visual”, dijo.
Cada jugador con una discapacidad enfrenta un desafío único por muchas razones, una de las cuales es la relativa escasez de periféricos enfocados en la accesibilidad para consolas.Microsoft está dando un gran paso hacia la solución de esto con su Xbox Adaptive Controller, un dispositivo creado para satisfacer las necesidades de los jugadores para quienes los gamepads comunes no son una opción.
El XAC, que se reveló oficialmente en un evento reciente pero también se filtró hace unos días, es esencialmente un par de botones gigantes programables y una almohadilla direccional de gran tamaño; Los puertos de 3.5 mm en la parte posterior permiten conectar una gran variedad de dispositivos de asistencia, como tubos de soplado, pedales y accesorios hechos por Microsoft.
No pretende ser una solución todo en uno de ninguna manera, más como un centro que permite a los jugadores con discapacidades hacer y ajustar fácilmente sus propias configuraciones con un mínimo de molestias. Lo que sea que sea capaz de hacer, lo que sea cómodo, cualquier equipo que ya tenga, el XAC está destinado a habilitarlo.
Me gustaría entrar en detalles, pero sería imposible hacerlo mejor que la extremadamente interesante y profunda publicación de Microsoft sobre el XAC , que entra en los orígenes del hardware, las historias personales de los probadores y creadores y mucho más. Vale la pena tomarse el tiempo para leer.
Espero con interés escuchar más sobre el sistema y cómo lo usan sus usuarios, y me complace ver la inclusión y la accesibilidad que se persiguen de una manera tan práctica y cuidadosamente investigada.
Mi primer contacto con la tecnología de accesibilidad fue con subtítulos ocultos.
Como la mayoría de la gente, lo daba por sentado y lo ignoraba principalmente como un ajuste en mi televisor. Pero un día, cuando estaba harto de pausar mi película por milésima vez porque una ambulancia estaba cruzando por nuestra calle, decidí encenderla. Con el tiempo, cambió la forma en que veo la televisión, hasta el punto en que la extraño cuando no está allí.
Este es el ideal para personas como Jenny Lay-Flurrie , la responsable de accesibilidad de Microsoft . No solo quiere que el mundo se adapte a las personas con discapacidades, sino que quiere que la tecnología mejore, y como resultado beneficia a las personas con discapacidad.
Un ejemplo es la transcripción en vivo, algo en lo que Microsoft ha estado trabajando durante años. Durante la conferencia de desarrolladores Build de la compañía la semana pasada , mostró un programa que puede identificar a las personas en una reunión, transcribir lo que están diciendo e incluso sacar elementos para hacer de la conversación. Por supuesto, muchas personas de la comunidad con discapacidad se benefician de esa idea, pero yo también lo haría como periodista.
“Es tan sangrientamente lógico”, dijo.
Esa unidad ya ha ayudado a Microsoft a crear cosas increíbles. Un ejemplo es un motor portátil diseñado para detectar el temblor experimentado por un paciente con Parkinson y luego sacudirlo en un movimiento opuesto, permitiéndoles hacer cosas simples como firmar su nombre o sostener una taza de café . También desarrolló una aplicación gratuita llamada Seeing AI , que describe todo lo que le pones delante, ya sea que eso signifique leer un menú en un restaurante o identificar cuánto dinero tienes.
Y el año pasado, el grupo Xbox de Microsoft lanzó una función llamada Copilot el año pasado, que permite a las personas usar dos controladores para jugar con un personaje. Eso lo convirtió en un éxito entre padres y niños pequeños que querían jugar juntos. También ayudó a los jugadores con alguna discapacidad a usar más cómodamente dos controladores en diferentes posiciones, o incluso mezclar un controlador pirateado con botones especiales junto con uno estándar.
Este año, siguió con el Xbox Adaptive Controller , que está diseñado para conectarse a casi cualquier botón, joystick o tubo sensible a la presión que se haya diseñado para ayudar a las personas con discapacidad a usar la tecnología y jugar más fácilmente.
Lay-Flurrie, cuya sordera se inició a una edad temprana después de una pelea con sarampión seguida de una serie de infecciones del oído debilitantes, por lo general tiene una intérprete Belinda “Bel” Bradley con ella. Pero esa tecnología de transcripción en vivo se está volviendo tan buena que Lay-Flurrie dice que a veces no siente que siempre necesite a Bradley con ella.
A lo que Bradley respondió rápidamente: “Estoy descifrando cómo desmantelarlo”.
Aquí hay extractos editados de mi conversación con Lay-Flurrie la semana pasada, justo antes de visitar el edificio “Studio B” de Microsoft en Redmond, Washington, para ver su nuevo Controlador Adaptable de Xbox .
Lay-Flurrie: La Organización Mundial de la Salud define “discapacidad” como una falta de coincidencia entre el individuo y el entorno en el que se encuentra.
No estoy roto. Algunos pueden estar en desacuerdo. Pero la mayor parte no estoy roto. Tengo una discapacidad que me da un desajuste. Ese es un hermoso principio de diseño.
¿Cómo puede la tecnología ser mucho más un puente entre un entorno individual en el que se encuentran? No solo los empodera a ellos, a mí en un escenario sordo o a alguien en un escenario de movilidad, sino que también empodera a todos. Es mejor diseño, es mejor tecnología, faculta a todos.
Si nos fijamos en la historia, estaba pasando bastante. Hemos estado en este espacio durante 20 años. Bill Gates comenzó en el 97. Cuando me uní a Microsoft hace 13 años, había seis grupos que zumbaban y zumbaban. Ahora hay 15.
¿Siempre ha habido belleza? No. En cualquier viaje de 20 años se obtienen muchos altibajos. Pero en realidad, ha sucedido bastante en múltiples ámbitos diferentes.
Lo que estás viendo es este calor y pasión por la accesibilidad. Creo que es una increíble oportunidad de nerd técnico para nosotros.
Muchas de estas cosas todavía se sienten como una ocurrencia tardía. Sucede, pero es una idea de último momento. Tengo curiosidad, ¿qué hay que hacer donde estas cosas se sienten incluso en términos de cuánto esfuerzo de desarrollo y tiempo y energía se les está poniendo? ¿O ya está allí y me lo estoy perdiendo?
Lay-Flurrie: Siempre hay más que puedes hacer. En lo que difiero es que hemos pasado al principio del diseño inclusivo, donde no se hace al final. En realidad, se hace como parte del proceso de diseño de pensar cómo va a funcionar ese producto para un ser humano, incluida la parte que es diversa, ya sea el género, la discapacidad o cualquier otra cosa. Y abrazar eso es parte del diseño y seguirlo durante todo el ciclo de desarrollo. Significa que no solo obtiene un producto accesible, sino que obtiene un producto diferenciado que puede beneficiarse mucho más.
¿Dónde crees que está la industria de la tecnología en general con estas cosas en este momento?
Lay-Flurrie: Este no es un área donde competimos. En los Estados Unidos, la tasa de desempleo es el doble para las personas con discapacidad . No vas a competir cuando tienes ese tipo de demografía.
Tengo una discapacidad que me da un desajuste. Ese es un hermoso principio de diseño.
Jenny Lay-Flurrie
Y ninguno de nosotros diría que hemos llegado a un destino final, porque si camina con alguien por un día, y como diseñador, como ingeniero, como UX, cualquiera que sea su habilidad, verá miles de oportunidades donde la tecnología podría tener una jugada.
Hay mucho más por hacer. No es omnipresente todavía. No es algo que todos conozcan. Hay tanto en Windows o en Office, la gente no tiene idea de que está justo allí. Tenemos algo llamado Comprobador de accesibilidad en Office 365. Y lo movimos justo al lado del corrector ortográfico. Simplemente verifica su documento para ver, ya sabe, qué tan inclusivo es su documento.
¿En qué manera?
Lay-Flurrie: Entonces, si está enviando un documento de Word o un correo electrónico, si coloca una imagen allí pero no ha puesto una descripción detrás de ella, le dirá: “se está perdiendo una descripción, amigo”. Por favor, vaya a arreglarlo “.
Soy terrible acerca de eso.
Lay-Flurrie: AI te va a ayudar, porque tomará la imagen y escribirá una descripción para ti. Pero colocamos ese verificador de accesibilidad al lado del corrector ortográfico y mejoramos 5 veces durante la noche.
Mucha gente no tiene idea de lo que hay allí.
Los sensores parecen jugar un papel importante en la accesibilidad. Entonces, ¿cómo lidias con problemas como la privacidad? Porque se siente como si tuviera que romper muchos moldes de seguridad y privacidad para que todo esto funcione.
Lay-Flurrie: Todo lo que hacemos tiene la misma barra de escrutinio, seguridad e intención. Esa información es información personal y no vamos a compartirla.
Toda esa información es tuya
No estoy pensando tanto en Microsoft, pienso en todos. Quiero decir, si nos fijamos en las empresas que deberían conocer mejor la privacidad, dicen: “bueno, no estábamos buscando en esta dirección, no nos dimos cuenta, estábamos enfocados en otras amenazas” y de repente todo va muy mal. Y eso es lo que siento curiosidad. Las buenas intenciones aún pueden terminar mal si no se piensa lo suficiente. Y nunca puedes pensar en todo.
Lay-Flurrie: Creo que desde una perspectiva puramente tecnológica nos aseguramos de que maneje los datos de la manera correcta. Esos son principios que defendemos.
Pero también, respetamos mucho a las personas con las que estamos trabajando. La mayoría de nosotros somos personas con discapacidad de alguna manera o afectadas por ella. Nunca faltaríamos el respeto a esas personas.
Si miramos hacia el futuro lejano, ¿cómo se ve, en términos de su trabajo?
Lay-Flurrie: Volví a ese principio: una falta de coincidencia entre el individuo y el entorno en el que se encuentra. La tecnología es un puente. Debería ser omnipresente.
¿Podrías tener una sociedad más inclusiva porque esa tecnología no está en máquinas de aspecto dramáticamente diferente? ¿Está todo en un dispositivo, y las personas simplemente lo están adaptando o usando con un mouse diferente o con un software diferente o una configuración diferente?
Y creo que es nuestro trabajo proporcionar la base adecuada, una plataforma y la capacidad para adaptarnos de esa manera. Quiero ver que la tecnología sea mucho más ese puente.
Centrémonos en ese talento que acaba de entrar en la sala y que puede ser un experto en ciencia de datos. Dejemos que la tecnología sea el facilitador.
Entonces, miro el futuro en términos de qué podemos cambiar, qué podemos potenciar y luego respaldar la tecnología en eso.
Uno de los bloqueadores con entrevistas es que puede necesitar intérpretes. Es posible que no necesariamente pueda escribir un esquema en una pizarra. En el futuro, de repente puede ser como, “la tecnología está aquí, aprovecharla como quieras”.
“Oh, necesitas un intérprete? Vamos a hacer un video y obtener uno para ti”.
“Oh, ¿necesitas una habitación un poco más grande? Bueno, simplemente cambiaremos esta pared con un botón de encendido, listo”.
“¿Necesitas la iluminación un poco más baja? Puedes controlarla tú mismo”.
Simplemente piensa en todos esos escenarios que pueden ser tan prohibitivos para una entrevista. Y la tecnología podría resolverlos todos.
No es una conversación sobre dar cabida a alguien con una discapacidad para que ingresen nuevos talentos. Se trata de “tienes las habilidades que necesito para mi trabajo”.
Es una sociedad más inclusiva que creo que podemos potenciar.