Dispositivo de lectura en el dedo ayuda invidentes

Larry Hardesty | Oficina de noticias del MIT

Researchers at the MIT Media Lab have created a finger-worn device with a built-in camera that can convert text to speech for the visually impaired.
Researchers at the MIT Media Lab have created a finger-worn device with a built-in camera that can convert text to speech for the visually impaired.

La retroalimentación de audio ayuda al usuario a escanear el dedo a lo largo de una línea de texto, que el software convierte a voz.

Los investigadores del MIT Media Laboratory han creado un prototipo de dispositivo montado en el dedo con una cámara incorporada que convierte el texto escrito en audio para usuarios con discapacidad visual. El dispositivo proporciona retroalimentación, ya sea táctil o audible, que guía el dedo del usuario a lo largo de una línea de texto, y el sistema genera el audio correspondiente en tiempo real.

“Realmente necesitas tener un acoplamiento estrecho entre lo que la persona escucha y dónde está la punta del dedo”, dice Roy Shilkrot, estudiante graduado del MIT en artes y ciencias de los medios y, junto con Jochen Huber, post-doctoral de Media Lab, autor principal de un nuevo artículo describiendo el dispositivo. “Para usuarios con discapacidad visual, esta es una traducción. Es algo que traduce lo que el dedo está “viendo” al audio. Realmente necesitan una retroalimentación rápida y en tiempo real para mantener esta conexión. Si está roto, rompe la ilusión “.

Huber presentará el documento en la conferencia Computer-Human Interface de la Asociación para Computadoras en abril. Los coautores de él y Shilkrot son Pattie Maes, la profesora Alexander W. Dreyfoos en Artes y Ciencias de los Medios del MIT; Suranga Nanayakkara, profesor asistente de desarrollo de productos de ingeniería en la Universidad de Tecnología y Diseño de Singapur, quien fue postdoc y luego profesor visitante en el laboratorio de Maes; y Meng Ee Wong de la Universidad Tecnológica de Nanyang en Singapur.

El documento también informa los resultados de un estudio de usabilidad realizado con voluntarios con problemas de visión, en el que los investigadores probaron varias variaciones de su dispositivo. Uno de ellos incluía dos motores hápticos, uno en la parte superior del dedo y el otro debajo. La vibración de los motores indica si el sujeto debe subir o bajar el dedo de seguimiento.

Otra versión, sin los motores, en su lugar usaba comentarios de audio: un tono musical que aumentaba de volumen si el dedo del usuario comenzaba a alejarse de la línea de texto. Los investigadores también probaron los motores y el tono musical en conjunto. Sin embargo, no hubo consenso entre los sujetos sobre qué tipos de retroalimentación fueron más útiles. Por lo tanto, en el trabajo en curso, los investigadores se concentran en los comentarios de audio, ya que permite un sensor más pequeño y ligero.

Línea de fondo

La clave del rendimiento en tiempo real del sistema es un algoritmo para procesar la alimentación de video de la cámara, que Shilkrot y sus colegas desarrollaron. Cada vez que el usuario coloca su dedo al comienzo de una nueva línea, el algoritmo realiza una serie de conjeturas sobre la línea base de las letras. Como la mayoría de las líneas de texto incluyen letras cuyos fondos descienden por debajo de la línea base, y debido a que las orientaciones sesgadas del dedo pueden hacer que el sistema confunda las líneas cercanas, esas conjeturas serán diferentes. Pero la mayoría de ellos tienden a agruparse, y el algoritmo selecciona el valor mediano del grupo más denso.

Ese valor, a su vez, limita las conjeturas que el sistema realiza con cada nueva trama de video, a medida que el dedo del usuario se mueve hacia la derecha, lo que reduce la carga computacional del algoritmo.

Dada su estimación de la línea base del texto, el algoritmo también rastrea cada palabra individual cuando se desliza más allá de la cámara. Cuando reconoce que una palabra se coloca cerca del centro del campo de visión de la cámara, lo que reduce la distorsión, recorta solo esa palabra de la imagen. La estimación de línea de base también permite que el algoritmo realinee la palabra, compensando la distorsión causada por los ángulos de cámara de bicho raro, antes de pasarla a un software de código abierto que reconoce los caracteres y traduce las palabras reconocidas al habla sintetizada.

En el trabajo reportado en el nuevo documento, los algoritmos fueron ejecutados en una computadora portátil conectada a los dispositivos montados en los dedos. Pero en el trabajo en curso, Marcel Polanco, un estudiante de maestría en ciencias de la computación e ingeniería, y Michael Chang, estudiante de pregrado en informática participando en el proyecto a través del Programa de Oportunidades de Investigación de pregrado del MIT, están desarrollando una versión del software que se ejecuta en un teléfono Android , para hacer que el sistema sea más portátil.

Los investigadores también descubrieron que su dispositivo podría tener aplicaciones más amplias de lo que inicialmente se habían dado cuenta. “Desde que comenzamos a trabajar en eso, nos resultó obvio que cualquiera que necesite ayuda con la lectura puede beneficiarse de esto”, dice Shilkrot. “Recibimos muchos correos electrónicos y solicitudes de organizaciones, pero también solo de padres de niños con dislexia, por ejemplo”.

“Es una buena idea usar el dedo en lugar del movimiento de los ojos, porque los dedos son, como el ojo, capaces de moverse rápidamente con intención en xey y pueden escanear cosas rápidamente”, dice George Stetten, un médico e ingeniero con articulaciones. nombramientos en el Instituto de Robótica de Carnegie Mellon y en el Departamento de Bioingeniería de la Universidad de Pittsburgh, que está desarrollando un dispositivo montado en los dedos que brinda a los usuarios con discapacidad visual información sobre objetos distantes. “Estoy muy impresionado con lo que hacen”.

Fuente news.mit.edu

Hukoomi obtiene el primer lugar en el ranking en accesibilidad web

HUKOOMI GETS THE FIRST RANKING IN WEB ACCESSIBILITY

  • Audiencia: Gobierno
  • Fuente: Ministerio de Transporte y Comunicaciones (MoTC)
  • Tema: Comunicaciones e informática, personas con discapacidad
  • Fecha: 10 de abril de 2018

El Portal de Gobierno Electrónico de Qatar Hukoomi obtuvo el primer ranking en accesibilidad web para el Centro de Tecnología Asistencial (Mada) en abril de 2018, de 124 entidades.

En esta ocasión, el Sr. Tareq Al Emadi, Administrador del Departamento de Gobierno Electrónico de Qatar, Director del Departamento de Hukoomi, dijo: “Nos gustaría agradecer a Mada la gran y fructífera cooperación entre nosotros, y esperamos con interés la continuación de los esfuerzos conjuntos, para el propósito de empoderar a las personas con discapacidad y permitirles acceder fácilmente al contenido digital “.

Al Emadi agregó: “Estamos muy contentos con este logro especial que refleja los grandes esfuerzos de Hukoomi en ofrecer un rico contenido de servicios e información que sea fácilmente accesible para todos los públicos. El portal actualmente incluye más de 1400 servicios, con más de 650 servicios en línea que pueden ser completados en línea por individuos, visitantes, empresas y entidades gubernamentales, como salud, educación, servicios comerciales y mucho más “.

Al Emadi señaló que el portal Hukoomi ha atravesado varias etapas de desarrollo y mejoras, desde su lanzamiento en 2008, al ofrecer más servicios e información, hasta el lanzamiento de la versión actual que ofrece una experiencia de usuario única al mejorar las funcionalidades de la función de búsqueda. y permitir a las personas con discapacidad usar el portal.

Vale la pena mencionar que se ha lanzado el portal Hukoomi para Personas con Discapacidad , como una iniciativa de Mada Center, y en colaboración con el portal Hukoomi, para conectar a las personas con discapacidad con sus familias, cuidadores y proveedores de servicios, brindándoles recursos útiles y temas. Esta información incluye la búsqueda de servicios educativos adecuados, instituciones que ofrecen beneficios por discapacidad, a dónde acudir para servicios especializados de atención médica y rehabilitación, y mucho más.

Fuente: portal.www.gov.qa

Accessibility Tools Mada:  madaportal.org/downloads

Accessibility Tools

 

Silla de ruedas AI autónoma para ayudar a personas con discapacidad

El equipo de expertos de robots del Imperial College de Londres ha ganado $ 50,000 para desarrollar aún más una silla de ruedas artificialmente inteligente controlada por los ojos.

Silla de Ruedas
Crédito: Fotos de ThinkStock

 

El equipo de investigación del Imperial College London ganó $ 50k. El premio fue anunciado como parte del Mobility Unlimited Challenge Challenge Award , que es financiado por Toyota Mobility Foundation y administrado por el Nesta ‘s Challenge Prize Center .

Este premio de investigación ayudará a desarrollar una silla de ruedas autodirigida para personas paralizadas que puedan guiar con su mirada. También esperan hacer que esta silla de ruedas la ponga a disposición de las personas a bajo costo.

El director del proyecto, el Dr. Aldo Faisal de los Departamentos de Computación y Bioingeniería de Imperial, dijo: “Nuestra silla de ruedas ayudará a las personas a navegar por sus hogares y el mundo exterior. Si el usuario puede mover sus ojos para mirar el mundo, puede operar la silla de ruedas que lee las intenciones de sus ojos “.

El poder de la AI se está volviendo accesible y asequible para la gente común. Nosotros en Imperial estamos aprovechando su poder para mejorar vidas.
– Dr. Aldo Faisal

La silla de ruedas inteligente artificial autodidacta combina las tecnologías existentes disponibles, como el sistema de seguimiento ocular y las computadoras portátiles, con la silla de ruedas eléctrica.

La silla utiliza un sensor de Detección y rango de luz ( LiDAR ). Este sensor se basa en el infrarrojo, que se usa con mayor frecuencia en los autos sin conductor para generar un mapa de 360 ​​grados del entorno del usuario.

The self-driving artificially intelligent wheelchair

 

El rastreador ocular en silla de ruedas informa los momentos oculares a la AI y el programa AI define a dónde debe moverse la silla de ruedas y la guía para evitar obstáculos.

La silla de ruedas artificialmente inteligente autodidacta

Los componentes AI y LiDAR han hecho que sea más fácil navegar en la silla de ruedas evitando obstáculos sin más respuesta humana.

La silla de ruedas artificialmente inteligente autodidacta

 

La tecnología ayudará a las personas gravemente discapacitadas a restablecer su independencia a bajo costo.
– Noyan Songur y Mahendran Subramanian

El Dr. Faisal dijo: “Nuestra silla de ruedas es un gran ejemplo de innovación. También demuestra que el poder de la AI se está volviendo accesible y asequible para las personas comunes. Nosotros en Imperial estamos aprovechando su poder para mejorar vidas “.

Los estudiantes de posgrado del equipo de Aldo, Noyan Songur y Mahendran Subramanian dijeron: “Estos sistemas inteligentes de inteligencia artificial pueden aprender y mejorar de forma específica para el usuario a lo largo del tiempo, por lo que podemos trabajar con los pacientes desde el primer día para identificar sus necesidades y expectativas. La tecnología ayudará a las personas gravemente discapacitadas a restablecer su independencia a bajo costo “.

Fuente: techexplorist.com

“Prosthetic hands” se vuelven inteligentes, y son sensibles al tacto

Por 

Las prótesis se transforman en extensiones controladas por la mente del cuerpo humano que permiten a los usuarios sentir lo que están tocando.

Las prótesis se transforman en extensiones controladas por la mente del cuerpo humano que permiten a los usuarios sentir lo que están tocando.

Garrett Anderson casi le rompe la mano a su abuela mientras trataba de darle un suave apretón.

El sargento retirado del ejército de EE. UU., Que había perdido su brazo derecho debajo del codo en 2005 mientras patrullaba en Irak, no pudo determinar cuánta presión aplicaba con su mano protésica. Es un problema común.

Cuando sostenemos un bolígrafo, estrechamos una mano o tomamos una cáscara de huevo, instintivamente sabemos cuánta presión ejercer sin aplastar el objeto. Tal retroalimentación sensorial no es posible con la mayoría de las manos protésicas, que permiten a los amputados sujetar un objeto, pero no pueden decirles cuánta presión están usando.

Anderson, de 41 años, ha estado haciendo su parte para cambiar eso. Durante los últimos tres años, ha estado probando prototipos que lo hacen sentir nuevamente.

“Puedo sentir tocar la mano de mi hija o tocar la mano de mi esposa, o recoger una cáscara de huevo sin aplastarla”, dice Anderson sobre su trabajo con Psyonic , una nueva empresa que opera en el Parque de Investigación de la Universidad de Illinois, en Urbana-Champaign. . Psyonic espera proporcionar prótesis comerciales con detección de presión el próximo año, y otras con retroalimentación sensorial en algún momento después de eso.

La tecnología está en el umbral de convertir lo impensable en realidad. Las prótesis incómodas y torpes se transforman en extensiones controladas por la mente del cuerpo humano que les dan a los usuarios un sentido del tacto y un mayor rango de movimiento.

Junto con la retroalimentación sensorial, las prótesis de goma y silicona de Psyonic utilizan el aprendizaje automático para brindar a sus usuarios un control intuitivo. La extremidad protésica modular de la Universidad Johns Hopkinspromete ofrecer una fuerza “humana”, destreza y sensación controladas por el pensamiento. Actualmente se encuentra en la fase de investigación. Y la compañía islandesa Ossur está llevando a cabo ensayos preclínicos sobre prótesis de piernas y pies controladas por la mente. Estos y otros avances podrían hacer que sea más fácil para los amputados realizar los tipos de tareas que la mayoría de las personas dan por hecho.

Señales de mano

Al igual que muchas prótesis ya en el mercado, la mano Psyonic de Anderson es lo que se llama una prótesis mioeléctrica, lo que significa que se controla utilizando señales eléctricas generadas por los músculos restantes de su brazo. Los músculos en su antebrazo le dicen a sus dedos que se flexionen y se extiendan, por ejemplo.

No lo llamo una prótesis. De hecho, lo llamo mi brazo.

Jodie O’Connell-Ponkos

Cuando Anderson piensa en mover la mano, los electrodos en la mano protésica miden las señales eléctricas de su antebrazo, mientras que el software de reconocimiento de patrones detecta si quiere abrir o cerrar la mano, juntar los dedos o cerrar un puño, por ejemplo. En efecto, sus pensamientos controlan su mano artificial.

Pero es la retroalimentación sensorial de la prótesis, gracias a los sensores de presión en las yemas de los dedos, lo que le permite a Anderson estrechar la mano sin romper huesos, sostener una delicada cáscara de huevo con los ojos vendados o clavar un clavo en una tabla. Cuando toca un objeto, esos sensores le permiten sentir vibraciones, hormigueo o presión.

Control del pensamiento

Sin algo así como el software de reconocimiento de patrones, una prótesis mioeléctrica puede ser difícil de controlar.

Eso fue cierto para Jodie O’Connell-Ponkos, una entrenadora de caballos en Ghent, Nueva York, que había perdido la mano en una picadora de carne industrial cuando tenía 16 años. A menudo luchó para que su prótesis funcionara porque era difícil para alinear los sensores a los músculos de sus brazos.

“El brazo casi me hizo sentir como un fracaso a veces”, dice O’Connell-Ponkos, de 49 años. “Era más incómodo de llevar que no usar, así que opté por alejarme de él”.

Más de 20 años después, en 2015, recibió una mano protésica de la empresa alemana Ottobock que había sido equipada con un controlador de Coapt, en Chicago.

De manera similar a la prótesis de Psyonic, el sistema de Coapt decodifica las señales eléctricas de los músculos restantes de un amputado. Igualmente importante, también utiliza un algoritmo de reconocimiento de patrones para traducir la intención en movimiento.

O’Connell-Ponkos ahora usa su mano artificial para todo, desde atarse los zapatos y ponerse el pelo en una cola de caballo para cortar leña y entrenar caballos. “No hay mucho que no haya resuelto cómo hacer”, dice ella. “No lo llamo una prótesis. De hecho, lo llamo mi brazo”.

La tecnología de Coapt ha estado en el mercado desde 2012 y es compatible con una variedad de prótesis de ocho compañías.

Tales avances tecnológicos no están limitados a la parte superior del cuerpo.

Es realmente esa experiencia humana que estamos comenzando a restaurar.

Dustin Tyler

Ossur , con sede en Reykjavik, Islandia, comenzó un esfuerzo para desarrollar prótesis de pierna y pie controladas por el pensamiento. Para que funcionen, los cirujanos implantarían un pequeño sensor mioeléctrico en los músculos restantes de las piernas de los amputados. El sensor recibe los impulsos eléctricos subconscientes del cerebro y, con la ayuda de un procesador por separado, redirige las señales a la prótesis. El objetivo: permitir que los amputados se muevan y caminen sin pensarlo conscientemente.

“Usted está devolviendo lo que llamamos el ‘control voluntario’ para el paciente”, dice Kim DeRoy, vicepresidente ejecutivo de investigación y desarrollo en Ossur. “Y eso es algo que, para muchos pacientes, falta”.

Mirando hacia el futuro

El futuro de las prótesis es todo acerca de los implantes.

Específicamente, los investigadores están explorando el uso de implantes pequeños con forma de píldora insertados profundamente en un músculo, lo que permite un control más preciso y preciso.

Pero ese no es su único beneficio potencial si la investigación de Dustin Tyler se desarrolla. El profesor de ingeniería biomédica de la Universidad Case Western Reserve está desarrollando una técnica que podría engañar al cerebro para que piense que las sensaciones provienen de la mano faltante de carne y hueso.

El esfuerzo consiste en colocar un manguito de electrodos alrededor de los nervios restantes de la persona amputada y conectar esos manguitos a un pequeño dispositivo implantado en el pecho que, a su vez, activa esos nervios. Una conexión Bluetooth vinculará el implante de tórax con el brazo protésico, de modo que cuando el brazo toque algo, active los nervios. Tyler cree que los implantes podrían obtener la aprobación de la FDA dentro de los próximos 10 años.

“Es realmente esa experiencia humana que estamos comenzando a restaurar”, dice. “No creo que debamos subestimar el valor de eso”.

Video Mobile app helps amputee better use prosthetic

Fuente: cnet.com

 

Extensión Funkify – simulador de discapacidad en fase beta

Funkify - disability simulator - beta

    Funkify – disability simulator – beta

Funkify es una nueva extensión para Chrome que te ayuda a experimentar la web y las interfaces a través de los ojos de usuarios extremos con diferentes habilidades y discapacidades.

Funkify es creado por un equipo de expertos en usabilidad y accesibilidad en Suecia. El proyecto está financiado por la Autoridad Sueca de Correos y Telecomunicaciones (Post och telestyrelsen, PTS).

Tenga en cuenta que Funkify está en construcción. Mucho sucederá durante 2018, así que estad atentos.

Simulador de Cognitividad

Al utilizar nuestro simulador de cognición obtendrá la esencia de lo que es para las personas con autismo, TDAH y otras afecciones neurológicas utilizar la web. Si no tiene la experiencia especial que estas condiciones pueden traer, definitivamente obtendrá una nueva perspectiva.

Lo que el equipo detrás de Funkify pretende lograr con este simulador es ofrecer una comprensión más profunda de lo que puede hacer con su sitio para disminuir el impacto cognitivo y, por lo tanto, llegar a un público más amplio.

Asi que. Continúe y descargue la extensión de Funkify y use nuestra persona “Hyperactive Henny”. Acepte el desafío: vea si puede mantenerlo funcionando durante cinco minutos.

Simulador de dislexia

Una pregunta común es cómo los usuarios con dislexia experimentan la web. El simulador de dislexia de Funkify podría darte una parte de la respuesta, ya que codificará las letras y las hará bailar, creando una frustración que recordarás.

El objetivo principal de este simulador es mostrar la complejidad del diagnóstico de dislexia. Tenga en cuenta que nuestros ejemplos solo demuestran lo que puede ser para algunas, no todas, las personas con dislexia.

Entonces: descargue la extensión Funkify, inicie el simulador Dyslexia Dani y observe cómo una pared de texto se vuelve completamente abrumadora para pasar.

Hemos desarrollado este simulador junto con personas con dislexia. Con algunos ajustes en la configuración, puede abarcar gran parte de la experiencia de las personas con dislexia en la Web.

Simulador de motricidad

Descubra cuántos usuarios con capacidades motoras o discapacidades diferentes pueden experimentar la web. El personaje del simulador de motor de Funkify ‘Trembling Trevor’ te hará perder cierto control sobre el puntero del mouse.

El objetivo principal de este simulador es aclarar la frustración de una persona que intenta señalar y hacer clic en un elemento demasiado pequeño en un sitio web, como un botón o un enlace.

Entonces: descargue la extensión Funkify, inicie el simulador Trembling Trevor y sienta el impulso instantáneo de ampliar los objetivos táctiles.

Simulador de visión

El simulador de visión único en Funkify muestra cómo los usuarios de Internet con diferentes problemas de visión pueden experimentar la web. Tiene varias características que le ofrece la posibilidad de ver a través de sus ojos por un tiempo.

Advertencia: esto podría servir como una revelación motivante e incluso darle muchas ideas brillantes para la mejora del sitio.

Con esto dicho, descargue la extensión de Funkify ahora para usar nuestros personajes gratuitos ‘Blurry Bianca’, ‘Tunnel Toby’, ‘Color Carl’, ‘Elderly Ellen’ or ‘Sunshine Sue’. Cada uno le ofrece un tipo diferente de deterioro de la visión común.

Fuente: funkify.org