App enseña lengua de señas para acortar brecha entre sordo y oyente

La aplicación Ceibal-LSU, que enseña lenguaje de señas a los usuarios, busca acortar la brecha que existe entre la comunidad sorda y la oyente. (Foto: Getty Images)

La aplicación Ceibal-LSU, que enseña lenguaje de señas a los usuarios, busca acortar la brecha que existe entre la comunidad sorda y la oyente, al tender un “puente al revés” para evitar que quienes tienen discapacidad auditiva tengan que ser siempre quienes se esfuerzan por incluirse en un mundo que oye.

Así lo explicó a Efe Mariana Montaldo, jefa de Contenidos del Plan Ceibal, organización que financió el desarrollo de esta aplicación, que fue presentada este viernes en Montevideo.

“Fuimos conociendo las necesidades y vimos la brecha que había entre la comunidad sorda y la oyente. Frente a eso, pensamos que sería bueno crear una aplicación que enseñe a quienes pueden oír el lenguaje de señas”, agregó Montaldo.

La aplicación, llamada Ceibal-LSU (Lengua de Señas Uruguaya), tiene un funcionamiento similar a Duolingo, una plataforma para dispositivos electrónicos que enseña idiomas y cuya dificultad va en aumento en proporción a la evolución del usuario.

Según detalló Montaldo, lo primero que el usuario debe hacer es crear un avatar y seleccionar un área temática en la que indagar, como ser comidas, lugares, animales o colores, entre otras.

En cada una de ellas, la aplicación le mostrará al usuario una serie de vídeos que demuestran cómo se traducen las palabras al lenguaje de señas.

Una vez que el usuario termina el vídeo, la aplicación propondrá una serie de pruebas para confirmar que se comprendió la traducción de las palabras de forma correcta.

Los vídeos demostrativos fueron grabados por 10 alumnos de la Escuela 197, la única institución educativa exclusivamente para sordos que existe en Montevideo.

Aunque la aplicación está dirigida a los niños, y así fue pensada su estética, Montaldo no descartó que pueda ser utilizada también por docentes o adultos que quieran formarse en el lenguaje de señas.

“Una de las cosas que plantea es reflexionar sobre el lugar en el que se pone a la comunidad sorda. No es adaptar algo para que el sordo esté incluido, sino que la propuesta es que ellos nos enseñen a nosotros”, expresó Montaldo.

Respecto a esto último, consideró que es como “tender un puente al revés”.

“Que no sean siempre ellos (la comunidad sorda) quienes tengan que hacer el esfuerzo por incluirse en un mundo de gente que puede oír”, concluyó Montaldo.

La aplicación, que llevó ocho meses de trabajo, está disponible para descargar en dispositivos que funcionan con el sistema operativo de Android.

EFE

Fuente:  peru.com

Eyesynth: un sistema de navegación, reconocimiento y comprensión del entorno para ciegos

Un nuevo aparato permite a los ciegos obtener información espacial en un audio muy fácil de comprender.

Por Alberto Iglesias Fraga

Una startup española busca facilitar la movilidad de las personas con discapacidad visual. Foto: TICBeat

Las personas con discapacidad visual o ceguera lo tienen, a veces, muy complicado para superar los obstáculos artificiales que hemos ido creando en nuestras ciudades. Barreras y bolardos, objetos inesperados en la calle, diferencias de altura… la lista de problemas parece casi infinita para este colectivo que, hasta ahora, tenía a su propio instinto, el bastón o la ayuda de perros guía o voluntarios su única forma de moverse sin sufrir un accidente.

El sector tecnológico no ha sido ajeno a las necesidades de este grupo de población, proponiendo un sinfín de soluciones más o menos innovadoras con qué facilitar la movilidad de las personas con discapacidad visual. Entre ellas, destaca Eyesynth, un sistema de navegación, reconocimiento y comprensión del entorno en tiempo real no invasivo y muy sencillo de utilizar.

TICbeat tuvo la oportunidad de conocer este interesante proyecto de la mano de Antonio Quesada, CEO de Eyesynth. He aquí la entrevista completa:

¿Cómo surgió la idea de poner en marcha Eyesynth?
La idea surgió un poco como consecuencia frente a la falta de respuestas tecnológicas a una comunidad tan grande de gente. Desde el perro guía y el bastón, no hay un estándar de movilidad tecnológico y en Eyesynth nos hemos propuesto cambiar eso. Nosotros no pretendemos hacer sustituciones, sino complementar las opciones existentes con una herramienta actualizada y que permita ampliar muchísimo la movilidad y la independencia de la persona que lo use.

¿Cómo funcionan vuestras gafas y el software que las acompaña? ¿En qué principios científicos y tecnológicos se sostiene?
Nuestra tecnología hace un análisis tridimensional del entorno y convierte esa información espacial en un audio muy fácil de comprender, un siseo parecido al rumor del mar. Lo cierto es que nos apoyamos mucho en la ciencia y en el principio de la sinestesia en el que el cerebro tiene la habilidad de poder reinterpretar la información que le da un sentido mediante otro. También nuestros planteamientos están relacionados con la plasticidad del cerebro: es capaz de crear nuevas conexiones neuronales entre las zonas auditiva y visual para mejorar la comunicación entre ellas. El cerebro es capaz de “recablearse”

¿En qué casos concretos puede la tecnología de Eyesynth ayudar a las personas con discapacidades visuales?
Claro, hay varios casos en los que las gafas se muestran muy útiles, por ejemplo, en la detección de obstáculos aéreos, como pueden ser toldos, semáforos o extintores de pared. También es importante la amplitud de la imagen que se analiza, hasta 6 metros de distancia. Un factor crítico es cada cuánto tiempo se actualiza la información al usuario. En nuestro caso, 60 veces por segundo, lo que nos da mucho margen de movilidad al estar advertidos lo suficientemente pronto de los objetos que tenemos delante.

¿Cuáles son las principales barreras que os encontrasteis a la hora de desarrollar vuestra idea?
Primero la gran cantidad de cálculo que tenía que hacer el sistema, con lo cual a nivel de electrónica es todo muy complejo, y luego existe una barrera más de tipo social. Ha habido muchas propuestas tecnológicas que no han estado suficientemente bien diseñadas y que han hecho crecer un escepticismo hacia la posible potencia y utilidad de tecnologías como la nuestra.

¿Está ya en fase de comercialización vuestra tecnología?
Estamos ya en la última fase de producción, vamos a entrar en proceso de fabricación masiva en breve para poder salir al mercado a principios del año que viene. Además, estamos muy contentos de poder contar con un amplio grupo de usuarios y testers que están dándonos su feedback para mejorar el producto en esta última etapa.

¿Cuáles son vuestras previsiones de alcance en el mercado?
La verdad es que es difícil hacer un análisis a priori cuando estamos rompiendo hielo, pero dado que tenemos un precio lo más ajustado y competitivo posible, y una necesidad real de mercado, las expectativas son buenas.

¿El desarrollo de la tecnología ha sido propio o habéis contado con terceros? ¿Ha sido 100% creada en España?
Exacto, ha sido un desarrollo interno propio. 100% creado en España.

¿Cuál ha sido la colaboración de instituciones y organismos públicos a la hora de desarrollar la empresa, más allá del programa Horizonte 2020 del que formáis parte?
A nivel Institucional estamos en contacto con varios actores principales en materia de movilidad y discapacidad en España. Como iniciativas e instituciones privadas, estamos siendo muy apoyados por los medios de comunicación en la divulgación del proyecto, además hemos recibido varios premios en los últimos meses en materia de innovación y emprendimiento que nos están dando visibilidad y un gran apoyo.

“Desde el perro guía y el bastón, no hay un estándar de movilidad tecnológico para ciegos”, asegura Antonio Quesada. Foto: TicBea
“Desde el perro guía y el bastón, no hay un estándar de movilidad tecnológico para ciegos”, asegura Antonio Quesada. Foto: TicBeat

Financiación: ¿habéis emprendido ya rondas de financiación?
Estamos estudiando diversas posibilidades, nuestro objetivo es expandirnos y que el proyecto tome un camino global, y para ello estamos abiertos a varias posibilidades entre las que se incluyen el abrir ronda de financiación.

¿Cuántas personas estáis involucradas actualmente en el proyecto?
Actualmente el núcleo del proyecto lo forman 15 personas, pero el proyecto va mucho más allá del equipo de desarrollo en sí. Con los probadores, consejeros y personas involucradas en él de una manera u otra, superamos la treintena.

Próximos retos del proyecto, algún hito próximo que podamos adelantar a los lectores
Nuestros hitos más cercanos son llegar al mercado y empezar una distribución europea, pero si es verdad que estamos trabajando en varios focos. Por ahora os podemos decir que en nuestra hoja de ruta tenemos un montón de novedades emocionantes que llegarán a las gafas en forma de actualización de software.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE TICBeat. VER ORIGINAL AQUÍ. PROHIBIDA SU REPRODUCCIÓN.

Fuente: sinembargo.mx

App uruguaya enseña lengua de señas para acortar brecha entre sordo y oyente

La aplicación está dirigida a los niños, pero también puede ser usada por docentes o adultos que quieran aprender el lenguaje de señas

La aplicación tiene un funcionamiento similar a Duolingo. (Foto: Ceibal-LSU)
La aplicación tiene un funcionamiento similar a Duolingo. (Foto: Ceibal-LSU)

La aplicación Ceibal-LSU, que enseña lenguaje de señas a los usuarios, busca acortar la brecha que existe entre la comunidad sorda y la oyente, al tender un “puente al revés” para evitar que quienes tienen discapacidad auditiva tengan que ser siempre quienes se esfuerzan por incluirse en un mundo que oye.

Así lo explicó a Efe Mariana Montaldo, jefa de Contenidos del Plan Ceibal, organización que financió el desarrollo de esta aplicación, que fue presentada este viernes en Montevideo.

“Fuimos conociendo las necesidades y vimos la brecha que había entre la comunidad sorda y la oyente. Frente a eso, pensamos que sería bueno crear una aplicación que enseñe a quienes pueden ‘oír’ el lenguaje de señas”, agregó Montaldo.

La aplicación, llamada Ceibal-LSU (Lengua de Señas Uruguaya), tiene un funcionamiento similar a Duolingo, una plataforma para dispositivos electrónicos que enseña idiomas y cuya dificultad va en aumento en proporción a la evolución del usuario.

Según detalló Montaldo, lo primero que el usuario debe hacer es crear un avatar y seleccionar un área temática en la que indagar, como ser comidas, lugares, animales o colores, entre otras.

En cada una de ellas, la aplicación le mostrará al usuario una serie de vídeos que demuestran cómo se traducen las palabras al lenguaje de señas.

Una vez que el usuario termina el vídeo, la aplicación propondrá una serie de pruebas para confirmar que se comprendió la traducción de las palabras de forma correcta.

Los vídeos demostrativos fueron grabados por 10 alumnos de la Escuela 197, la única institución educativa exclusivamente para sordos que existe en Montevideo.

Aunque la aplicación está dirigida a los niños, y así fue pensada su estética, Montaldo no descartó que pueda ser utilizada también por docentes o adultos que quieran formarse en el lenguaje de señas.

“Una de las cosas que plantea es reflexionar sobre el lugar en el que se pone a la comunidad sorda. No es adaptar algo para que el sordo esté incluido, sino que la propuesta es que ellos nos enseñen a nosotros”, expresó Montaldo.

Respecto a esto último, consideró que es como “tender un puente al revés”.

“Que no sean siempre ellos (la comunidad sorda) quienes tengan que hacer el esfuerzo por incluirse en un mundo de gente que puede oír”, concluyó Montaldo.

La aplicación, que llevó ocho meses de trabajo, está disponible para descargar en dispositivos que funcionan con el sistema operativo de Android.

Fuente: elcomercio.pe

«Lazzus»: el lazarillo de los invidentes

La app genera un campo auditivo para funcionar como un sistema de navegación para ciegos

La app genera un campo auditivo para funcionar como un sistema de navegación para ciegos

Unos emprendedores asturianos han lanzado «Lazzus», una aplicación diseñada para mejorar la autonomía de los ciegos y los discapacitados visuales, con el objetivo de aumentar la seguridad del usuario a la vez que aportarle información útil y de interés en sus desplazamientos, según han informado los impulsores de esta iniciativa.

La aplicación, disponible para iOS y Android, es un asistente que acompaña a estas personas en sus desplazamientos creando un campo de visión auditivo y proporcionándoles información relevante del entorno, por ejemplo, si hay un paso de peatones, un cruce de calles o establecimientos concretos.

«Nos sorprendió una persona ciega buscando un GPS en una tienda de electrónica, confiando en que podría ayudarle en sus desplazamientos, pero ningún GPS es accesible. Nos dimos cuenta de que, a pesar de la tecnología que llevamos en la mano gracias a los smartphones, no existía ningún asistente personal que pudiera ayudar a los discapacitados visuales», ha explicado el CEO y socio de Lazzus, Francisco Pérez.

Por ello, según ha señalado Pérez, quisieron ir «un paso más» y crear una app que «realmente aportase un valor añadido», ofreciendo «toda la información» que el usuario no puede ver.

«Lazzus» combina dos fuentes de datos complementarias: Google PlacesOpen Street Maps, que juntas proporcionan información «precisa» que permite descubrir multitud de puntos de interés. Además, ofrece que cada usuario pueda añadir sus propios puntos de interés, permite realizar búsquedas en un radio de 100 metros y facilita la exploración del terreno, filtrando “sólo información relevante” que está cerca del usuario.

«Hemos intentado mostrar el entorno a través de distintas formas, para que el usuario elija dependiendo de sus necesidades en cada momento», ha subrayado el emprendedor, que también ha destacado que la app incluye el «Modo Linterna», que indica lo que hay en la dirección que señalas con el móvil; el «Modo 360º», que reconoce lo que está en un radio cerca de ti en todas las direcciones; y el «Modo Transporte», que se activa automáticamente cuando vas en un autobús o coche, indicando el lugar en el que se encuentra el usuario para evitar que se desoriente.

La aplicación, que ofrece una prueba gratuita de dos kilómetros, ha sido testada y avalada por el centro de la ONCE referente en España en accesibilidad y productos de apoyo para personas ciegas (CIDAT), y ha recibido el premio de Google a la startup más innovadora y disruptiva, así como el premio Fundación Vodafone a la innovación en comunicaciones.

Fuente: abc.es

Se lanza un producto de accesibilidad para personas con discapacidad

Sirve para el uso de videoporteros por personas con discapacidad visual o auditiva, que pueden instalarse en edificios, estacionamientos, hospitales y escuelas.

Se creó un nuevo producto llamado A8004-VE, que permite a personas con discapacidades auditivas o visuales la comunicación a través de videoportero para el control de entradas y salidas en edificios, estacionamientos, además de áreas de acceso restringido en hospitales y escuelas.

A8004-VE

La empresa desarrolladora se llama Axis Communications, y la placa frontal que se conecta directamente al videoportero IP de la empresa, cuenta con pictogramas luminosos que muestran la liberación del acceso y función activada, lo que indica, por ejemplo, que la imagen del usuario está siendo vista en vivo por el equipo de monitoreo.

Para usuarios con dificultades visuales, un loop de avisos sonoros alerta sobre la presencia del videoportero, y una marcación en braille indica el botón de llamada de voz con la central. De esta manera, la interacción con la tecnología es mucho más simple y hace innecesaria la presencia de terceros.

“El producto permite a los edificios cumplir con regulaciones sobre accesibilidad libre de barreras”, explica Andrei Junqueira, gerente de Ventas de Axis para América del Sur.

En diciembre de 2016, Axis recibió el premio Sustainability Leadership Award, que reconoce a personas, equipos y organizaciones que han hecho de la sostenibilidad una parte integral de sus prácticas.

Fuente: connuestroperu.com