Desde la traducción de audífonos hasta guantes de lenguaje de señas, increíble tecnología de asistencia.

Por @lukedormehl

Uso de audifonos en mujer PCD

Desde la firma de los brazos del robot hasta los audífonos que leen la mente, los próximos años van a ser bastante asombrosos para la tecnología de accesibilidad si esta lista es algo por lo que seguir. Estos son algunos de los proyectos tecnológicos más impresionantes que hemos encontrado en esta área.

PROYECTO ASLAN

Firmar es muy bueno, pero como cualquier idioma, no es muy bueno si un lado de la conversación no lo dice. Ahí es donde entra en juego un proyecto de robótica de varios años de investigadores de la Universidad de Amberes de Bélgica.

Que han desarrollado una mano robótica impresa en 3D capaz de traducir palabras habladas y escritas en gestos de lenguaje de señas. El dispositivo reconoce estas palabras usando una cámara web, y luego las comunica al usuario a través del “deletreo de dedos”, un modo de lenguaje de señas que explica las palabras letra por letra con gestos con una sola mano.

Aunque no está disponible actualmente, la mano del robot del Proyecto Aslan se puede imprimir en 3D por solo unos pocos cientos de dólares, y promete ser lo suficientemente pequeña como para caber en una mochila.

CÁMARAS QUE PUEDEN TRADUCIR FIRMA

Un robot que puede convertir el habla en lenguaje de señas es bueno, pero para que tenga lugar una conversación completa necesita tecnología que pueda convertir el lenguaje de señas en voz o texto, y voz en texto o lenguaje de señas, y hacer todo esto en tiempo real. -hora.Eso es lo que desarrolló una startup de Dallas llamada KinTrans , con una cámara 3D y un micrófono acompañante que puede determinar lo que se dice o firma, y ​​luego traducirlo de forma rápida y precisa para la otra parte.

Según sus creadores, el sistema ya puede reconocer miles de palabras firmadas con una precisión de alrededor del 98 por ciento. Puede manejar múltiples idiomas, también.

GUANTES INTELIGENTES

¿No te gusta la idea de ser visto por una cámara? No hay problema. En la Universidad de California en San Diego, los investigadores han desarrollado guantes inteligentes de bajo costo capaces de traducir automáticamente el lenguaje de señas americano (ASL) al texto digital que aparece en una computadora o teléfono inteligente correspondiente. No se requiere cámara.

Para usar el guante, el usuario simplemente firma las letras en el alfabeto ASL, que luego se reconocen debido a las variaciones en la resistencia eléctrica. Al igual que Project Aslan, una de las mejores características de esta solución es su bajo precio, por lo que es una solución potencialmente asequible para un problema desafiante. Los componentes en el guante inteligente suman menos de $ 100 en costo.

Si bien todavía es un proyecto de investigación por ahora, podemos imaginar que ese precio baje aún más con la producción en masa.

TECNOLOGÍA DE TRANSCRIPCIÓN DE NUEVA GENERACIÓN

Gracias a los avances en el reconocimiento de voz, la tecnología de voz a texto ha ido mejorando durante años. Pero no siempre es útil para situaciones en las que hay varias personas hablando, como en una configuración de conversación grupal.

Una nueva campaña de Indiegogo llamada SpeakSee , creada por empresarios con sede en los Países Bajos, utiliza micrófonos con clip individuales y tecnología beamforming para aislar el habla de las personas y filtrar el ruido de fondo.

Como resultado, las conversaciones se transforman en transcripciones de guiones , en las que diferentes oradores se resaltan en colores únicos. Estos se pueden leer en una tableta o teléfono inteligente que los acompaña.

AUDÍFONOS CON LECTURA DE ONDAS CEREBRALES

Imagínese si un audífono fue capaz de determinar en qué sonido está tratando de enfocarse y magnificar solo ese audio, al tiempo que calma todo lo demás.

Eso es lo que los investigadores de la Facultad de Ingeniería y Ciencias Aplicadas de la Universidad de Columbia han estado trabajando con un nuevo “audífono cognitivo”,diseñado para ayudar a los usuarios en situaciones como habitaciones atestadas.

El dispositivo funciona monitoreando la actividad cerebral de los usuarios y luego usando una red neuronal profunda para determinar en qué voz del hablante se está concentrando el oyente. En este momento, todavía es un proyecto de investigación, pero esto podría ser transformador cuando llegue al mercado.

OÍDOS SOLARES

Hay cerca de 400 millones de personas en todo el mundo con una discapacidad relacionada con la pérdida auditiva. De estos, más de la mitad vive en países con menores niveles de ingreso a lugares como Estados Unidos. Ese es un problema cuando se trata de audífonos, ya que el costo de los dispositivos y sus baterías puede estar fuera del alcance de muchas personas que de lo contrario podrían ayudar.

Como su nombre lo indica, Solar Ear es un audífono alimentado con energía solar, cuyas baterías están diseñadas para durar de 2 a 3 años, en comparación con los 7 a 10 días de una batería común. Es considerablemente más barato que los audífonos regulares, también.

TRADUCIENDO AUDÍFONOS

Los audífonos permiten que los usuarios sordos o con problemas de audición puedan escuchar las voces de otras personas directamente en sus oídos. Pero, ¿y si pudiera realizar un poco de magia computacional en el camino, y usar la traducción automática para, por ejemplo, transformar las palabras de un hablante nativo de alemán al inglés? Esa es la tecnología que sin duda se convertirá en audífonos de alta gama durante los próximos años.

Ya ha habido algunas demostraciones bastante impresionantes en la forma del Auricular de traducción piloto de Waverly Labs y el TranslateOne2One impulsado por IBM Watson . De repente, los audífonos son un punto de mucho más útil. (De repente, los audífonos están a punto de ser mucho más útiles).

¿ESCUCHANDO A TRAVÉS DE TU … PIEL?

La mayoría de los audífonos son, en nuestra experiencia, abrumadoramente basados ​​en los oídos. Un proyecto de investigación de neurocientíficos en Baylor College of Medicine en Houston, Texas, quiere cambiar eso con la ayuda de un chaleco que les permite a las personas sordas “oír” a través de su piel .

El dispositivo recoge el audio entrante a través del teléfono inteligente de los usuarios y luego lo traduce en vibraciones específicas que el usuario puede sentir en su piel. La esperanza es que, con el tiempo, los usuarios aprendan a procesar estas vibraciones como información casi de la misma manera que una persona ciega podría aprender a leer a través de los toques táctiles de braille.

Hasta donde sabemos, este es un proyecto de investigación en curso, pero una campaña de Kickstarter hace unos años sugiere que el objetivo es desarrollar un producto comercial al final.

Fuente, digitaltrends.com

 

El futuro de la tecnología debe facultar, no aislar, a las personas con discapacidad

Por Steve Tyler, Director de Tecnología de Asistencia, Leonard Cheshire

Históricamente, las necesidades de las personas con discapacidad han impulsado algunas de las innovaciones tecnológicas más importantes del mundo: más que nunca, debemos garantizar que la accesibilidad se dedique al desarrollo y al pensamiento técnico.

mujer dicapacidad auditiva usando auriculares
SLADIC A TRAVÉS DE GETTY IMAGES

Como comunidad, las personas con discapacidades tienen una capacidad asombrosa para negociar creativamente los inmensos desafíos planteados por entornos inaccesibles.

Desde un usuario ciego descubriendo cómo usar los sistemas de menú inaccesibles de los productos cotidianos escuchando ruidos y pitidos que a menudo son insignificantes para los demás, hasta un niño que usa la boca para sostener un bolígrafo para escribir, las personas con discapacidad tienden a ser buenas encontrar formas únicas de trabajar, a pesar del entorno en el que están operando.

En algunos casos, los grandes diseños provienen de las necesidades de las personas, a veces especializadas, a veces convencionales. En el mejor de los casos, el diseño bien ejecutado de los productos cotidianos tiene en cuenta las necesidades de nuestra diversa raza humana, o al menos parte de ella. Pero lamentablemente, este no es siempre el caso.

Parece que, cada vez más, las necesidades de las personas con discapacidad no se tienen en cuenta cuando se trata del diseño de nuevas tecnologías. Esto a pesar del hecho de que el número de personas con discapacidades es bien conocido: una de cada cinco personas en el Reino Unido se ven afectadas por la discapacidad. También sabemos que la discapacidad adquirida, como resultado de vivir más tiempo, está en aumento.

 Históricamente, las necesidades de las personas con discapacidad han impulsado algunas de las mayores innovaciones tecnológicas del mundo.

Pellegrino Turri, un inventor del siglo XIX, desarrolló uno de los primeros dispositivos mecánicos que permitía a su novia ciega poder escribir cartas sin la necesidad de contar con un escriba para que escribiera para ella. Nació la máquina de escribir, seguida de la entrega del teclado qwerty: siempre presente hoy, incluso en nuestros dispositivos con pantalla táctil.

Ray Kurzweil es uno de los primeros en haber desarrollado una “máquina de lectura para ciegos”, un dispositivo de tamaño no similar al de un frigorífico de finales de la década de 1970, que utilizaba el habla sintética para leer textos que podían escanearse. Hoy, estos sistemas de OCR están en todos los escritorios. La última entrega de Ray, una aplicación para teléfonos móviles, ofrece instrucciones de orientación para garantizar que una persona ciega capture el documento correctamente con la cámara.

El fonógrafo, precursor del gramófono y todo lo que vino después, se desarrolló con el dictado de cartas y libros parlantes para las personas ciegas como las dos principales posibilidades para su uso.

Desde el contraste de colores hasta los clasificadores de calcetines, la lista es larga, donde a través de la necesidad, una idea de diseño ha sido desencadenada por una necesidad real y traducida al uso cotidiano general.

Hoy, como comunidad de discapacitados nos beneficiamos con las últimas tecnologías: soluciones de lectura de pantalla, controles de interruptor, control visual, “teclas adhesivas” y conceptos muy nuevos como la activación cerebral o el uso de simulaciones de realidad virtual para ayudar a las personas con autismo en la exposición controlada a entornos que ellos conocen será un desafío para ellos. Estos y muchos más han sido duramente ganados, a menudo con el apoyo de defensores clave de la compañía, legislación y, simplemente, una gran idea.

Sin embargo, hay áreas de la vida que, desde el punto de vista de la accesibilidad, siguen siendo ilusorias. A menudo, las ideas tradicionales de marketing ven la discapacidad como demasiado complicada, demasiado difícil de alcanzar o demasiado “nicho”.

Si estoy buscando una lavadora o un equipo de cocina que pueda usar, por ejemplo, lo que necesito no siempre está disponible. Si me conformaré con un equipo inaccesible, el fabricante continuará pensando que el producto es un éxito. Pero negarse a comprar el producto no hará más que confundir al dependiente. Hacer que nuestras voces sean escuchadas no siempre es fácil. Necesitamos que los fabricantes consideren la discapacidad desde el comienzo de sus diseños, para garantizar que sus productos sean accesibles.

De cara al futuro, especialmente en el mundo de la educación y el trabajo, abordamos uno de los elementos esenciales que nos hacen humanos: la inteligencia. Estamos en el camino de crear máquinas inteligentes, robots, sistemas de entrega y autos sin conductor. La estructura misma de cómo funciona nuestra economía y de qué se trata el esfuerzo humano se transformará.

Más que nunca, debemos asegurarnos de que la accesibilidad esté dedicada al desarrollo y pensamiento técnico. No podemos darnos el lujo de perder las victorias que tanto nos costó conseguir, ni podemos darnos el lujo de confiar en los pocos que se enfrentan al desafío.

Nosotros, la comunidad de personas con discapacidad, debemos ser claros y estar unificados en torno a nuestras necesidades, y debemos reinventar nuestros métodos para hacer que la sociedad rinda cuentas sobre la accesibilidad. La tecnología tiene el poder de cambiar las vidas de las personas con discapacidad. Debemos aprovechar esto para asegurar que todos se beneficien de los rápidos avances en la tecnología.

Fuente huffingtonpost.co.uk

 

Estos artilugios podrían transformar la vida de las personas con discapacidad visual

 Audifonos eSight Vision Assistance
La compañía canadiense eSight ha producido unos auriculares para ayudar a las personas con impedimentos visuales.

“Hace años, no podía hacer cosas financieras sin ayuda”, dijo Mario Percinic, un profesional ciego de IT y experto en accesibilidad.

“Ahora uso un lector de pantalla con mi banca en línea”, dijo Percinic, quien es coanfitrión de un podcast sobre tecnología y accesibilidad llamado EBU Access Cast.

Las aplicaciones, incluida una que reconoce el dinero, son una parte esencial de la vida cotidiana de Percinic, y él cree que los teléfonos inteligentes son “una pieza de tecnología que una persona con discapacidad no puede vivir sin”.

Y los teléfonos inteligentes parecen dispuestos a seguir ofreciendo nuevos servicios a las personas con discapacidad visual.

Wayfindr, una subsidiaria de la Royal Society for Blind Children (RSBC), sin fines de lucro con sede en Londres, ha desarrollado un estándar de referencia para usar dispositivos móviles para ayudar a las personas a navegar en espacios interiores.

Usando estas pautas, Wayfindr trabaja con proveedores de transporte, centros comerciales y atracciones para los visitantes para ayudarlos a introducir “turn by turn indoor navigation” para garantizar la movilidad independiente de las personas con discapacidades visuales.

Aplicación Wayfindr
La aplicación Wayfindr proporciona navegación en interiores.

Ola de wearables

Más allá de los teléfonos inteligentes, la nueva tecnología portátil podría ser un cambio de vida para las personas con discapacidad visual.

La compañía israelí OrCam lanzó la segunda versión de su dispositivo para ayudar a las personas con discapacidad visual a fines del año pasado.

El OrCam MyEye 2.0, que pesa solo 22 gramos, es un dispositivo portátil que se sujeta a cualquier par de gafas. Su cámara inteligente captura información de texto, códigos de barras y caras y convierte la información de forma instantánea en palabras pronunciadas en el oído del usuario.

El dispositivo admite casi 20 idiomas, se vende por alrededor de $ 4,500 y actualmente está disponible en más de 20 países. Para algunas de las “decenas de miles de usuarios”, los costos están cubiertos, o parcialmente cubiertos, por aseguradoras u organizaciones de veteranos, explicó Ziv Aviram, director ejecutivo y cofundador de OrCam.

Aviram dijo que el dispositivo también puede reconocer dinero, números de bus y colores. “Todo se hace en tiempo real y fuera de línea, por lo tanto, nuestros usuarios tienen total privacidad”, dijo.

OrCam MyEye

 

OrCam planea introducir una función de “discurso a texto” más adelante este año.

“Los usuarios podrán formularle preguntas al dispositivo, pedirle que busque información específica en un periódico, por ejemplo, o pedirle que lea los titulares”, dijo Aviram. “Podrán señalar un menú y preguntar al dispositivo qué tipo de comida está disponible”.

Un campo de juego nivelado

La compañía canadiense eSight lanzó su auricular de asistencia visual el año pasado.

“Está diseñado para ser utilizado como un par de gafas, y el usuario elige cuándo usar el dispositivo”, explicó Jeff Fenton, director de alcance y comunicaciones de eSight.

El dispositivo está montado con una cámara digital que captura imágenes en vivo y las presenta frente a los ojos del usuario.

Se vende por $ 9,995, pero eSight ofrece opciones de pago y un programa de asequibilidad para ayudar a más personas a acceder al dispositivo.

“Todo lo que necesita está en el dispositivo. No es necesario conectarse a Internet para usarlo”, dijo Fenton, quien agregó que el dispositivo no recopila datos de los usuarios.

“Este tipo de tecnología realmente nivela el campo de juego para las personas con discapacidad visual”, dijo.

Fuente money.cnn.com

 

Firefox obtiene un cambio de pestaña más rápido, una nueva herramienta de accesibilidad para desarrolladores

Por Frederic Lardinois 

Primer plano de un panda rojo mirando lejos

Mozilla  lanzó la versión 61 de su navegador Firefox . Por ahora, no es ningún secreto que Firefox vuelve a ser un serio competidor del navegador Chrome de Google y, aunque la nueva versión no ofrece nuevas funciones innovadoras, todas las nuevas mejoras y herramientas de Firefox 61 son buenos ejemplos de por qué Firefox vale la pena intentarlo.

Dos de las nuevas funciones se centran en la velocidad, algo que Firefox estaba faltando por un tiempo, pero ahora ofrece mucho.

El primero de ellos es el calentamiento de pestañas, lo que esencialmente hace que el cambio entre pestañas sea más rápido porque Firefox ya comienza de forma preventiva a cargar una pestaña (después de un pequeño retraso) cuando estás sobre ella. Una vez que hagas clic en esa pestaña, la mayor parte del renderizado ya se habrá realizado, por lo que cambiar entre pestañas ahora parece más rápido.

La otra característica nueva relacionada con el rendimiento es ‘retained display lists.’ Cada vez que Firefox procesa una página, crea una lista de visualización que reúne los elementos de alto nivel como bordes, fondos y texto que deben mostrarse en la pantalla y luego los organiza de acuerdo con las reglas de pintura de CSS. Originalmente, Firefox crearía una nueva lista cada vez que cambiara la pantalla, tal vez porque se desplazó hacia abajo, por ejemplo. Con pantallas de alta resolución y sitios web complejos, ese proceso podría llevar un tiempo (aunque “un tiempo” en este contexto significa 4 o 5 milisegundos). En el transcurso de los últimos meses, el equipo de Firefox ha reconstruido partes de este sistema para garantizar que no sea necesario reconstruir esta lista cada vez, lo que ocasionó una reducción significativa de los tiempos de mostrar la página.

web-page-context-menu

Otra nueva característica importante de Firefox para los desarrolladores es el Inspector de herramientas de accesibilidad, que es parte del conjunto integrado de herramientas de desarrollo en el navegador. La idea aquí es proporcionar a los desarrolladores una visión más clara de cómo el navegador podría exponer información a personas con impedimentos visuales, por ejemplo, para que los desarrolladores puedan asegurarse de que los lectores de pantalla trabajen en sus sitios. Esta herramienta está desactivada de manera predeterminada porque tiene un poco de impacto en el rendimiento y la memoria, pero es lo suficientemente fácil de habilitar en las herramientas de desarrollo.

Puede leer un poco más sobre toda la información que expone aquí .

Como es habitual, hay muchos otros ajustes en esta versión (incluida la capacidad de WebExtensions para ocultar pestañas y una forma más sencilla de agregar motores de búsqueda a la barra de direcciones). Puede encontrar un desglose completo de cada cambio aquí .

Tecnología para oír lo que no se puede ver

Microsoft’s Seeing AI app for the blind arrives on iPhone

(EFE).- La nueva versión de unas gafas para ciegos con inteligencia artificial que convierten en tiempo real la información visual en audio para identificar rostros, productos de consumo y traducir oralmente cualquier texto se activarán ahora siguiendo la mirada o con un simple gesto del dedo.

Así lo han indicado a Efefuturo sus responsables, de la empresa OrCam, cuyo dispositivo, recién presentado en Madrid, memoriza hasta un centenar de rostros y además identifica si las imágenes se refieren a hombres, mujeres, adultos o niños, con una base de datos que almacena 70.000 códigos de barras para reconocer asimismo productos en el supermercado.

Con una cámara de poco más de 20 gramos que se acopla a la patilla de todo tipo de gafas, este dispositivo escanea y procesa las imágenes para convertirlas en audio en tiempo real con algoritmos e inteligencia artificial, añaden desde OrCam Technologies.

Por su parte, Guillermo Hermida, director del Cidat, el Centro de Investigación, Desarrollo y Aplicación Tiflotécnica de la ONCE, ha explicado a Efefuturo que en el mundo de la telefonía móvil existen varias aplicaciones con sistemas de reconocimiento óptico de gran ayuda para personas con discapacidad visual aunque reclama mayor accesibilidad a la tecnología.

En vísperas del Día Mundial de Internet, que se celebra este jueves, Hermida ha destacado los bajos precios de las aplicaciones móviles, incluso gratuitas, y la facilidad de manejo del teléfono móvil que las convierten en una gran herramienta para las personas con déficit visual.

Otra de las grandes virtudes de las aplicaciones es que permiten al invidente pasar desapercibido más allá de tecnologías demasiado llamativas, incómodas de llevar o de difícil manejo, añade.

Entre otras, ha destacado una gratuita de Microsoft actualmente en fase de pruebas llamada “Seeing AI”, que convierte el móvil en una lente y permite reconocer textos, identificar intensidades de luz, etc.

El procesamiento en “la nube” de las imágenes escaneadas permite a esta herramienta comparar ingentes cantidades de datos e identificar por comparación qué tipo de animal en concreto se está observando o cualquier objeto. Google asimismo tiene su propio motor de inteligencia artificial y apoya con nuevas iniciativas el uso de este tipo de tecnologías para reconocimiento de objetos y caras.

Una aplicación para móviles que identifica cualquier billete en el mudo es LookTel Money Reader, y para leer documentos existe por ejemplo TextGrabber. Por otra parte TapTapSee permite comprar lotes de fotografías e identificar automáticamente objetos que son descritos tras ser apuntados con una cámara.

“Be my eyes” conecta la aplicación con un voluntario, sin problemas visuales, que mediante la cámara del móvil de la persona discapacitada le lee lo que tiene delante. Así por ejemplo, si alguien que no ve bien se toma un café y no sabe si se ha manchado, el voluntario conectado le informa.

Si a la persona con dificultad visual se le ha caído una cuchara y no la encuentra, el voluntario le guía en la distancia para que la localice, explica Hermida. EFE

Fuente, lavanguardia.com