La ‘mirada’ inteligente que da voz a los enfermos de ELA

Una niña con parálisis cerebral utiliza, junto a una asistente, Irisbond en el ordenador

Irisbond, creadora de una tecnología que permite controlar el ordenador con la vista, lanza un nuevo producto adaptable al entorno móvil

Eduardo Jáuregui, fundador y cara visible de Irisbond, atiende al teléfono desde el manos libres del coche. Este ingeniero vasco conduce de vuelta a San Sebastián, ciudad en la que reside, desde Bilbao. Acaba de salir de un encuentro con inversores interesados en su proyecto, una joven tecnológica que en los próximos meses quiere dar un gran salto. Antes del verano pretenden cerrar una ronda de financiación de 1,5 millones de euros, la segunda en los tres años largos de vida de la compañía.

Son días ajetreados para Jáuregui y sus socios. En apenas unos días (miércoles 1 de febrero), Irisbond sacará al mercado su segundo producto, una evolución de Irisbond Primma, la tecnología que comercializan desde noviembre de 2013 y que por ahora utilizan “algo más de 500” personas con discapacidad, en hasta seis países, sobre todo España y Latinoamérica.

Este sistema, para explicarlo de una manera sencilla, permite controlar un ordenador a través del movimiento de los ojos, con el soporte de un dispositivo alargado que se coloca en la base de la pantalla del equipo.
El lanzamiento inminente va un paso más allá. El nuevo producto reduce las dimensiones del hardware, que ahora es “más adaptable”, y lo habilita para su uso en aparatos móviles como teléfonos y tabletas, explica Jáuregui.

Evolución de la tecnología

Aunque pensado inicialmente para su aplicación en diferentes sectores (industrias, cirugías médicas o en la asistencia a la conducción) Irisbond se ha revelado como una herramienta de gran utilidad para las personas con movilidad reducida y dificultades en el habla. Sobre todo, enfermos de ELA (Esclerosis Lateral Amiotrófica), Esclerosis Múltiple u otras afectaciones cerebrales y neurodegenerativas.

En el fondo, su nacimiento y origen se explica por la necesidad de dar voz a quienes lo tienen más difícil para comunicarse. A principios de los 2000 los dos socios originales del proyecto viajaron a Estados Unidos en busca de una tecnología que facilitase la vida a la mujer de uno de ellos, afectada por ELA. Tras asociarse con una empresa del país, comenzaron a desarrollar una patente y un producto propio, con el soporte, desde 2007, del centro tecnológico donostiarra Vicomtech. Pocos años después entra en escena Jáuregui, quien toma las riendas del negocio a comienzos de 2013, e impulsa definitivamente el proyecto.

“En este tiempo hemos trabajado muy activamente en la evolución de la tecnología”, apuntan desde Irisbond. Ello les permitirá, “a final de año”, estrenar un tercer producto, tras el previsto para este mismo febrero, que prescindirá completamente de elementos externos adicionales –el equipo actual precisa también de un cable USB para conectar la cámara que incorpora al ordenador–. “Con descargarte la aplicación se podrá utilizar en cualquier entorno, haciendo uso de la web cam incorporada en el dispositivo”, anticipan.

La mirada como conexión al exterior

 La plataforma actual de Irisbond, explican desde la empresa, funciona a base de reflejos. El dispositivo que incorpora el equipo emite haces de luz infrarroja, invisibles e inocuos para el ojo humano, que generan una serie de destellos al contacto con la córnea. La videocámara incorporada registra estos reflejos y, a través de un sistema de algoritmos, convierte el movimiento de los ojos en coordenadas de posición del ratón en la pantalla. Una especie de extensión imaginaria de la mirada para quien no puede alcanzar el teclado o el ratón por sus propios medios.
Irisbond

Esta tecnología, con un coste de 1.800 euros en el mercado (también accesible a plazos, con un pago mensual de 99 euros), añade un sistema auxiliar de comunicación, que facilita al usuario moverse por las aplicaciones informáticas más sencillas. Desde escribir en un documento de Word, chatear, seleccionar una película para verla en el ordenador o interactuar con el exterior, a través de sintetizadores de voz y otros comunicadores virtuales. “La mirada permite interactuar con el entorno de manera natural”, apunta Jáuregui.

La actualización de Irisbond para dispositivos móviles, de la que se resisten a dar demasiados detalles, tendrá un coste algo menor, de 1.600 euros. En ambos casos el precio incluye también las aplicaciones desarrolladas para navegar en Internet y las actualizaciones del software que se incorporan periódicamente.

En busca de inversión

Como en cualquier empresa emergente, el paso que aspiran a dar este año tiene sus riesgos. En la creación de la compañía en 2013, Jáuregui –que mantiene la mayoría accionarial– y Vicomtech aportaron, casi a partes iguales, el capital necesario para echar a andar el proyecto. Un año después el grupo Everis y Gestión de Capital Riesgo del País Vasco, un ente público-privado que invierte en empresas radicadas en la comunidad, inyectaron la primera financiación externa (300.000 euros) en Irisbond.

Ahora, para la segunda ronda en su corta vida, la empresa se muestra “abierta” a buscar el socio adecuado dentro del extenso mundo del venture capital, tanto en el panorama nacional como internacional.

Entre sus pretensiones para este año, también figura la extensión a mercados más exigentes, como son el “Norte de Euroa, Estados Unidos y Canadá”. Lo harán tras superar en 2016 el umbral de la rentabilidad (break even), año en el que alcanzaron los 300.000 euros de facturación, según las cifras facilitadas por la empresa.

Fuente

Así es como usa Internet un invidente. Al menos algunos

jaws

Si bien es cierto que la mayoría podemos hacernos una ligera idea de las incomodidades a las que se ven sometidas las personas que padecen algún tipo de discapacidad visual, lo cierto es que pocos somos conscientes de cómo estos individuos se desenvuelven en determinados entornos y actividades.

Es el caso de la navegación por Internet, un acceso sin el que muchos seríamos incapaces de “vivir” y que Facebook y otras plataformas tratan de poner más fácil. Pero, ¿en qué consisten estas iniciativas? ¿Cómo lo logran exactamente? ¿De qué herramientas se valen? Analizamos el contexto actual y les preguntamos a algunos de ellos.

Así, hace unas horas Facebook ha confirmado una utilidad que dio a conocer el mes pasado: un servicio capaz de describir y leer los subtítulos de las fotografías a los usuarios ciegos. Algo muy útil -especialmente si tenemos en cuenta que los habituales de su plataforma suben unos 350 millones de imágenes al día- que la entidad resuelve de la mano de un sistema de inteligencia artificial de reconoce los diferentes elementos de la captura.

“Una solución que permitirá a los ciegos unirse a conversaciones en las que anteriormente se les había dejado fuera”, ha comentado Matt King, especialista de esta área de la red social. En concreto, la aplicación puede identificar unos 100 elementos con una precisión de entre el 80 y 90% y se comunica en inglés. Eso sí, sus desarrolladores pretenden ampliar el catálogo de conceptos e idiomas progresivamente.

Sin embargo, la iniciativa de la red de Zuckerberg no es única en su especie sino que a mediados del mes pasado, la Wikipedia anunció que estaba trabajando en un motor de búsquedas específico para las personas con discapacidad visual: Wikispeech. Un sistema que les permitirá encontrar respuestas con mayor precisión y que, si bien empezará a funcionar en sueco, inglés y árabe, se expandirá hasta a 280 idiomas más antes de septiembre del año que viene.

Una apuesta interesante que se vale de otros servicios como Google Fotos y que trata de beneficiar al 25% de sus usuarios y para cuyo desarrollo la entidad se ha asociado con investigadores del Instituto de Tecnología KTH de Suecia. Su finalidad no es otra que la de crear el primer sistema de voz mundial desarrollado bajo un programa de crowdsourcing. El servicio, que también cuenta con la colaboración de la Swedish Post and Telecom Authority (PTS) y la STTS –especialista en sistemas tecnológicos para el habla-.

Qué dicen ellos

Sin embargo y a pesar de los progresos parece que todavía queda mucho por hacer en este ámbito. Para que podamos hacernos una idea, Jonathan Armengol y aficionado a la tecnología, nos cuenta cómo emplea Internet. Una experiencia para la que se vale de un MAC y de Safari, que utiliza desde para leer un periódico hasta sacar una entrada o buscar información.

“La navegación es bastante distinta, mucho más lenta, que para una persona que ve, porque para la que no lo hace se ve obligada a leer la página completa y depende mucho de su desarrollo”, comenta. “No tienes una visión global en ningún momento […] me lo tengo que tragar todo de cabo a rabo y no me lo puedo saltar hasta que el ordenador empieza a hablar”.

“Es viable y es posible navegar por Internet pero procuramos evitarlo en la medida de lo posible porque es un coñazo […] aunque comparativamente a lo que era antes con Flash al menos tenemos esa posibilidad”, remata. Un hecho que todavía complica más la falta de adaptación de muchas webs, a la que Armengol se refiere indignado, especialmente si tienen que ver con bancos, pues “solo el 20% son accesibles y en los que sacar dinero o llevar a cabo cualquier trámite puede complicarse”.

El trabajo es otro de los ámbitos en los que la falta de adaptación de los puestos puede conllevar ciertos inconvenientes, incluso para aquellos que cuentan con un 44% de discapacidad visual. Es el caso de Goyita Martín que, a pesar de trabajar en Tesorería, sus problemas de visión le llegaron a suponerle ciertas limitaciones. Unos problemas cuya solución radicó siempre en el agrandamiento de las letras y en la elaboración de una versión del programa que utilizaban con los caracteres de mayor tamaño.

Una petición que tuvo que llevar a cabo ella misma pues, tal y como se refiere y en términos generales, existe un gran desconocimiento al respecto. “Me valía de una lupa y de una pantalla agrandada, que para cualquier otra persona resultaría complicada de usar”, comenta. “Y eso que todavía tengo algo de visión”. Obviamente esta iniciativa no puede más que considerarse como un precario parche.

No existe consenso

En todo caso, no todos están de acuerdo (algo que hemos podido comprobar tras el aluvión de críticas recibidas a través de redes sociales). Al respecto, José María Ortiz, bloguero y asesor de accesibilidad web y móvil, comenta que el acceso a internet ha abierto muchas puertas a las personas ciegas, “como poder hacer la compra online en un supermercado”. También añade que “hay mucha gente haciendo esfuerzos para que esto cambie”.

De esta manera, existen herramientas como Apple VoiceOver -una prestación que te detalla todo lo que aparece en la pantalla del ordenador y te va guiando a la hora de seleccionar una opción determinada en el menú, activar un botón en el teclado, etcétera-. El servicio tiene otras ventajas como que es compatible con dispositivos braille electrónicos y que cuenta con un panel para favorecer la interacción entre los usuarios no invidentes y los que sí lo son; un rasgo que es posible aprovechar en el ámbito doméstico como el empresarial y educativo. Se encuentra disponible en más de 30 idiomas distintos. Jaws y Nva actúan de manera similar.

Asimismo y respecto a este tipo de utilidades, Halena Rojas comenta que “los usuarios que interactúan a través de un lector de pantalla no están obligados a escuchar toda una web para acceder al contenido de la misma. Dichas herramientas cuentan con atajos de teclas que facilitan la navegación y permiten acceder a diferentes zonas de la web […] Debido al ruido que puede ocasionar escuchar el motor de voz durante la carga de una web, lo más frecuente es detener la verbalización y luego intentar ubicar encabezados, listas o listar enlaces”.

La bloguera también explica que “la rapidez con que una persona interactúa con una página web, no depende de la ceguera o la visión. De hecho, al no necesitar ver la web, mediante el teclado una persona ciega puede acceder más rápidamente a un sitio determinado de una web, que aquel que debe visualizar dónde quiere ir para luego acceder pulsando”.

Las apps

Sin embargo y más allá de la navegación en sí misma, un amplio abanico reconoce que el avance y desarrollo de las apps ha supuesto grandes mejoras. De hecho, Armengol las emplea diariamente. Y no nos estamos refiriendo a aplicaciones específicas únicamente, sino también a aquellas que empleamos todos y que resultan accesibles para este colectivo.

“Yo hasta hace poco solo podía llegar a los sitios preguntando”, asegura, “ahora puedo usar una aplicación que se llama Lazzus, que te va ubicando”. La herramienta “es una mezcla entre el GPS y los acelerómetros, no ve por la cámara, pero me sirve para encontrar los sitios”, añade. “No puedes hacerte una idea de cómo de complicado puede hacerse algo tan sencillo como encontrar un Zara para recoger un pantalón”.

En concreto, Lazzus funciona usando la posición GPS del móvil y su brújula para generar un campo de visión sobre el que proporciona información auditiva, dotando al usuario del contexto que no puede ver y ofreciéndole mayor independencia.

Pero no es la única que usa; “si vieras mi móvil fliparías, tengo más de 100 apps”, comenta. Entre ellas se cuela también Moovit, una aplicación para el transporte público interurbano. De hecho ha sido solo hace unas semanas cuando ha estrenado la compatibilidad con VoiceOver y TalkBack, dos funciones que mejoran la experiencia de estas personas y les permiten escuchar diferentes sonidos que les guiarán a la hora de navegar por la app.

Unas prestaciones muy útiles, sobre todo si tenemos en cuenta que no siempre el anuncio del metro que indica la próxima parada está en lo cierto. La de la EMT de Madrid también es otra de sus habituales, que emplea con fines parecidos. Para el interior de su domicilio se decanta por Seeing Assistant Home, capaz de identificar las fuentes de luz, colores, generar códigos de barras, escanearlos y guardarlos; entre otros.TapTapSee es otra a las que se refiere.

En su iPhone también tienen cabida Skype, WhatsApp, Evernote, Fantasticam, mapas Apple, movies y hasta Netflix. Sí has leído bien, porque a pesar de que la televisión carece de atractivo alguno para Jonathan, esta última herramienta le resulta sencilla de usar y le mantiene “enganchado”. Un descubrimiento que comenta con agrado.

Respecto a la accesibilidad de otras no presentes en su lista, Armengol recalca que él se decanta por escribirle a los desarrolladores, “la gente no lo adapta automáticamente aunque puedes obtener todo tipo de respuestas”. De hecho, critica de manera particular la de Philips “me he gastado 300 euros en lámparas de Philips y me encantaría metérselas por el c*** a su presidente, porque no puedo encenderlas desde la aplicación”.

Otros proyectos y herramientas

Por otra parte, y fuera de nuestras fronteras nos topamos con Wayfindr, desarrollada, ni más ni menos, que por la Royal London Society for Blind People (RLSB) y UsTwo. Una herramienta basada en la colocación estratégica de una serie de etiquetas o carteles bluetooth en las paredes del metro, un sistema que lleva las correspondientesinstrucciones al móvil del usuario y que está pensado para guiarle como lo haría cualquier GPS.

Siemens también tiene su propio proyecto al respecto: InMoBS. Una iniciativa que permitirá a las personas con discapacidad visual moverse por la urbe con más confianza y seguridad. ¿Cómo? Mediante una app móvil que les guiará en sus desplazamientos y que interpreta los datos de su posición pero también otros transmitidos por el control del tráfico y otros elementos urbanos que no tardarán en estar conectados en un futuro no muy lejano.

De hecho, actualmente ya se ha probado en varias ciudades alemanas, donde se ha recabado información procedente de las señales de tráfico y los vehículos conectados. La herramienta, asimismo, funciona mediante vibraciones y sonidos, que alertarán al sujeto de posibles vehículos, semáforos, etcétera.

Volviendo a nuestro punto de partida y ya en 2012, la ONCE denunció la baja accesibilidad de las redes sociales, un hecho que dio lugar a una propuesta de la Universidad de Granada que permite adaptar la comunidad virtual de Zuckerberg a las personas con discapacidad visual. Eso sí, se encuentra centrada en la reducción del tiempo empleado para determinadas tareas y demás.

Otras herramientas pensadas para los usuarios ciegos son las redes socialesespecíficas, como Blindworlds, en la que incluso puedes establecer unas opciones de accesibilidad. Una comunidad pensada para ellos que nació bajo “la vocación de prestar un servicio a la sociedad, y especialmente a las personas con problemas de discapacidad física, y fundamentalmente a aquellas con discapacidad visual, para facilitar con esta herramienta el acceso a la información”.

Evidentemente, en ella tienen cabida toda clase de usuarios, y pueden publicarse un gran abanico de archivos, mensajes de audio, enlaces con su correspondiente título y descripción , textos de 140 caracteres y otras opciones como elegir amigos, invitarlos a usarla, etcétera.

Fuente

Imágenes accesibles a todos en Twitter

TwitterA partir de este martes (29), quien utiliza la aplicación de Twitter en iOS y Android podrá añadir descripciones a las imágenes publicadas en los Tweets para que sean accesibles a los discapacitados visuales. Con esta actualización, queremos asegurar que todo el contenido compartido en la plataforma llegue a una audiencia más amplia posible, de manera que todos estén incluidos en la conversación y disfruten de los mejores momentos juntos.

Usa esta función activando la opción crear descripciones de imágenes en los ajustes de accesibilidad de la aplicación de Twitter. La próxima vez que agregas una imagen a un Tweet, habrá un botón en la foto. Da un toque para añadir una descripción a la imagen. Las personas con discapacidades visuales tendrán acceso a la descripción a través de su tecnología de asistencia. Las descripciones pueden ser de hasta 420 caracteres y serán leídas por estos programas (por ejemplo, lectores de pantallas o en braille).

Para asegurar que los editores y los clientes también tengan la posibilidad de añadir un texto alternativo a las imágenes, extendemos nuestros productos para API REST y Twitter Cards. Sabemos que esto es especialmente importante para clientes especializados de Twitter, como EasyChirp, Chicken Nugget, y The Qube.

El nuevo recurso estará disponible en breve también en la web.

Fuente : Twitter

Herramienta de lectura para personas invidentes ó con debilidad visual en el Blog de PERÚ ACCESIBLE.

El blog de PERÙ ACCESIBLE siempre se muestra preocupado e interesado por ofrecer información de calidad, así mismo dando alcances que ayuden y apoyen a las diversas discapacidades que se abordan acá, por eso mismo hoy contamos con una herramienta sumamente practica, fácil y de sencillo acceso que da la opción de escuchar la lectura de los posts que día a día se publican en el blog, esto va dirigido y pensado para los usuarios y lectores que nos siguen con una discapacidad visual (invidentes o débiles visuales) la intención es proporcional una mayor funcionalidad para todas aquellas personas que son parte de este espacio, generando y haciendo una mayor accesibilidad.

La aplicación se ubica justo al final y centrado de cada artículo publicado, para que comience a reproducir es preciso dan un clic en el botón play y listo.

Somos participes y gustosos de generar un amplio servicio que sea práctico para las PCD, un saludo y bienvenidos sus comentarios.

Bookmark and Share

Leer másHerramienta de lectura para personas invidentes ó con debilidad visual en el Blog de PERÚ ACCESIBLE.