La aplicación Ceibal-LSU, que enseña lenguaje de señas a los usuarios, busca acortar la brecha que existe entre la comunidad sorda y la oyente, al tender un “puente al revés” para evitar que quienes tienen discapacidad auditiva tengan que ser siempre quienes se esfuerzan por incluirse en un mundo que oye.
Así lo explicó a Efe Mariana Montaldo, jefa de Contenidos del Plan Ceibal, organización que financió el desarrollo de esta aplicación, que fue presentada este viernes en Montevideo.
“Fuimos conociendo las necesidades y vimos la brecha que había entre la comunidad sorda y la oyente. Frente a eso, pensamos que sería bueno crear una aplicación que enseñe a quienes pueden oír el lenguaje de señas”, agregó Montaldo.
La aplicación, llamada Ceibal-LSU (Lengua de Señas Uruguaya), tiene un funcionamiento similar a Duolingo, una plataforma para dispositivos electrónicos que enseña idiomas y cuya dificultad va en aumento en proporción a la evolución del usuario.
Según detalló Montaldo, lo primero que el usuario debe hacer es crear un avatar y seleccionar un área temática en la que indagar, como ser comidas, lugares, animales o colores, entre otras.
En cada una de ellas, la aplicación le mostrará al usuario una serie de vídeos que demuestran cómo se traducen las palabras al lenguaje de señas.
Una vez que el usuario termina el vídeo, la aplicación propondrá una serie de pruebas para confirmar que se comprendió la traducción de las palabras de forma correcta.
Los vídeos demostrativos fueron grabados por 10 alumnos de la Escuela 197, la única institución educativa exclusivamente para sordos que existe en Montevideo.
Aunque la aplicación está dirigida a los niños, y así fue pensada su estética, Montaldo no descartó que pueda ser utilizada también por docentes o adultos que quieran formarse en el lenguaje de señas.
“Una de las cosas que plantea es reflexionar sobre el lugar en el que se pone a la comunidad sorda. No es adaptar algo para que el sordo esté incluido, sino que la propuesta es que ellos nos enseñen a nosotros”, expresó Montaldo.
Respecto a esto último, consideró que es como “tender un puente al revés”.
“Que no sean siempre ellos (la comunidad sorda) quienes tengan que hacer el esfuerzo por incluirse en un mundo de gente que puede oír”, concluyó Montaldo.
La aplicación, que llevó ocho meses de trabajo, está disponible para descargar en dispositivos que funcionan con el sistema operativo de Android.
Un nuevo aparato permite a los ciegos obtener información espacial en un audio muy fácil de comprender.
Por Alberto Iglesias Fraga
Las personas con discapacidad visual o ceguera lo tienen, a veces, muy complicado para superar los obstáculos artificiales que hemos ido creando en nuestras ciudades. Barreras y bolardos, objetos inesperados en la calle, diferencias de altura… la lista de problemas parece casi infinita para este colectivo que, hasta ahora, tenía a su propio instinto, el bastón o la ayuda de perros guía o voluntarios su única forma de moverse sin sufrir un accidente.
El sector tecnológico no ha sido ajeno a las necesidades de este grupo de población, proponiendo un sinfín de soluciones más o menos innovadoras con qué facilitar la movilidad de las personas con discapacidad visual. Entre ellas, destaca Eyesynth, un sistema de navegación, reconocimiento y comprensión del entorno en tiempo real no invasivo y muy sencillo de utilizar.
TICbeat tuvo la oportunidad de conocer este interesante proyecto de la mano de Antonio Quesada, CEO de Eyesynth. He aquí la entrevista completa:
¿Cómo surgió la idea de poner en marcha Eyesynth?
La idea surgió un poco como consecuencia frente a la falta de respuestas tecnológicas a una comunidad tan grande de gente. Desde el perro guía y el bastón, no hay un estándar de movilidad tecnológico y en Eyesynth nos hemos propuesto cambiar eso. Nosotros no pretendemos hacer sustituciones, sino complementar las opciones existentes con una herramienta actualizada y que permita ampliar muchísimo la movilidad y la independencia de la persona que lo use.
¿Cómo funcionan vuestras gafas y el software que las acompaña? ¿En qué principios científicos y tecnológicos se sostiene?
Nuestra tecnología hace un análisis tridimensional del entorno y convierte esa información espacial en un audio muy fácil de comprender, un siseo parecido al rumor del mar. Lo cierto es que nos apoyamos mucho en la ciencia y en el principio de la sinestesia en el que el cerebro tiene la habilidad de poder reinterpretar la información que le da un sentido mediante otro. También nuestros planteamientos están relacionados con la plasticidad del cerebro: es capaz de crear nuevas conexiones neuronales entre las zonas auditiva y visual para mejorar la comunicación entre ellas. El cerebro es capaz de “recablearse”
¿En qué casos concretos puede la tecnología de Eyesynth ayudar a las personas con discapacidades visuales?
Claro, hay varios casos en los que las gafas se muestran muy útiles, por ejemplo, en la detección de obstáculos aéreos, como pueden ser toldos, semáforos o extintores de pared. También es importante la amplitud de la imagen que se analiza, hasta 6 metros de distancia. Un factor crítico es cada cuánto tiempo se actualiza la información al usuario. En nuestro caso, 60 veces por segundo, lo que nos da mucho margen de movilidad al estar advertidos lo suficientemente pronto de los objetos que tenemos delante.
¿Cuáles son las principales barreras que os encontrasteis a la hora de desarrollar vuestra idea?
Primero la gran cantidad de cálculo que tenía que hacer el sistema, con lo cual a nivel de electrónica es todo muy complejo, y luego existe una barrera más de tipo social. Ha habido muchas propuestas tecnológicas que no han estado suficientemente bien diseñadas y que han hecho crecer un escepticismo hacia la posible potencia y utilidad de tecnologías como la nuestra.
¿Está ya en fase de comercialización vuestra tecnología?
Estamos ya en la última fase de producción, vamos a entrar en proceso de fabricación masiva en breve para poder salir al mercado a principios del año que viene. Además, estamos muy contentos de poder contar con un amplio grupo de usuarios y testers que están dándonos su feedback para mejorar el producto en esta última etapa.
¿Cuáles son vuestras previsiones de alcance en el mercado?
La verdad es que es difícil hacer un análisis a priori cuando estamos rompiendo hielo, pero dado que tenemos un precio lo más ajustado y competitivo posible, y una necesidad real de mercado, las expectativas son buenas.
¿El desarrollo de la tecnología ha sido propio o habéis contado con terceros? ¿Ha sido 100% creada en España?
Exacto, ha sido un desarrollo interno propio. 100% creado en España.
¿Cuál ha sido la colaboración de instituciones y organismos públicos a la hora de desarrollar la empresa, más allá del programa Horizonte 2020 del que formáis parte?
A nivel Institucional estamos en contacto con varios actores principales en materia de movilidad y discapacidad en España. Como iniciativas e instituciones privadas, estamos siendo muy apoyados por los medios de comunicación en la divulgación del proyecto, además hemos recibido varios premios en los últimos meses en materia de innovación y emprendimiento que nos están dando visibilidad y un gran apoyo.
Financiación: ¿habéis emprendido ya rondas de financiación?
Estamos estudiando diversas posibilidades, nuestro objetivo es expandirnos y que el proyecto tome un camino global, y para ello estamos abiertos a varias posibilidades entre las que se incluyen el abrir ronda de financiación.
¿Cuántas personas estáis involucradas actualmente en el proyecto?
Actualmente el núcleo del proyecto lo forman 15 personas, pero el proyecto va mucho más allá del equipo de desarrollo en sí. Con los probadores, consejeros y personas involucradas en él de una manera u otra, superamos la treintena.
Próximos retos del proyecto, algún hito próximo que podamos adelantar a los lectores
Nuestros hitos más cercanos son llegar al mercado y empezar una distribución europea, pero si es verdad que estamos trabajando en varios focos. Por ahora os podemos decir que en nuestra hoja de ruta tenemos un montón de novedades emocionantes que llegarán a las gafas en forma de actualización de software.
La aplicación está dirigida a los niños, pero también puede ser usada por docentes o adultos que quieran aprender el lenguaje de señas
La aplicación Ceibal-LSU, que enseña lenguaje de señas a los usuarios, busca acortar la brecha que existe entre la comunidad sorda y la oyente, al tender un “puente al revés” para evitar que quienes tienen discapacidad auditiva tengan que ser siempre quienes se esfuerzan por incluirse en un mundo que oye.
Así lo explicó a Efe Mariana Montaldo, jefa de Contenidos del Plan Ceibal, organización que financió el desarrollo de esta aplicación, que fue presentada este viernes en Montevideo.
“Fuimos conociendo las necesidades y vimos la brecha que había entre la comunidad sorda y la oyente. Frente a eso, pensamos que sería bueno crear una aplicación que enseñe a quienes pueden ‘oír’ el lenguaje de señas”, agregó Montaldo.
La aplicación, llamada Ceibal-LSU (Lengua de Señas Uruguaya), tiene un funcionamiento similar a Duolingo, una plataforma para dispositivos electrónicos que enseña idiomas y cuya dificultad va en aumento en proporción a la evolución del usuario.
Según detalló Montaldo, lo primero que el usuario debe hacer es crear un avatar y seleccionar un área temática en la que indagar, como ser comidas, lugares, animales o colores, entre otras.
En cada una de ellas, la aplicación le mostrará al usuario una serie de vídeos que demuestran cómo se traducen las palabras al lenguaje de señas.
Una vez que el usuario termina el vídeo, la aplicación propondrá una serie de pruebas para confirmar que se comprendió la traducción de las palabras de forma correcta.
Los vídeos demostrativos fueron grabados por 10 alumnos de la Escuela 197, la única institución educativa exclusivamente para sordos que existe en Montevideo.
Aunque la aplicación está dirigida a los niños, y así fue pensada su estética, Montaldo no descartó que pueda ser utilizada también por docentes o adultos que quieran formarse en el lenguaje de señas.
“Una de las cosas que plantea es reflexionar sobre el lugar en el que se pone a la comunidad sorda. No es adaptar algo para que el sordo esté incluido, sino que la propuesta es que ellos nos enseñen a nosotros”, expresó Montaldo.
Respecto a esto último, consideró que es como “tender un puente al revés”.
“Que no sean siempre ellos (la comunidad sorda) quienes tengan que hacer el esfuerzo por incluirse en un mundo de gente que puede oír”, concluyó Montaldo.
La aplicación, que llevó ocho meses de trabajo, está disponible para descargar en dispositivos que funcionan con el sistema operativo de Android.
Después de tres años de investigación y trabajo arduo, el emprendimiento ecuatoriano HandEyes lanzó al mercado “Eyeclip” el primero de varios dispositivos que llevan inventando y que ayudará a la movilidad de las personas con discapacidad visual.
“Eyeclip” actúa como una especie de radar a través de un sensor que registra la distancia y que emite un sonido y una vibración para que la persona que lo lleva puesto pueda esquivar posibles obstáculos que se encuentren en su trayecto y pueda caminar de forma segura.
El dispositivo complementa así el bastón que utilizan los no videntes, ya que detecta los objetos que se encuentra de la cintura para arriba mientras que el bastón detecta los objetos que están de la cintura para abajo. De esta manera las personas ya no chocarán con letreros, ramas u otros obstáculos que se encuentran en las aceras o calles de la ciudad.
Sus inventores son Fabricio Reyes, Diego Aguinsaca y Carlos Canacuán, todos recientemente graduados de la Universidad de las Fuerzas Armadas (ESPE) de las carreras de Ingeniería Electrónica, Ingeniería Mecatrónica e Ingeniería Mecánica respectivamente.
En una ceremonia realizada en la ESPE los jóvenes inventores entregaron los dispositivos a personas no videntes que les ayudaron a modificar algunas de sus funcionalidades y que los acompañaron en el proceso desde el principio.
Carlos Canacuán le dijo a Andes que se sentían completamente complacidos de que ha llegado el día de finalmente dejar de hacer prototipos y empezar a comercializar un producto final. “Lo que queremos reflejar con esto es que en Ecuador se puede crear tecnología, que acá hay talento necesario y suficiente para crear este tipo de cosas. Y ayudar a las personas no videntes que siempre será nuestra misión, juntar todo nuestro talento para que ellos puedan mejorar su calidad de vida”, señaló.
Su mensaje para para todos los emprendedores ecuatorianos es que confíen en lo que están haciendo porque solo con sus ideas se va a poder cambiar el país. “Los obstáculos se van superando, nosotros al inicio no sabíamos ni cómo hacer un logo y ahora nos ha tomado tiempo, pero es cuestión de dedicarse. Todo lo que hagan debe estar orientado a ayudar a un grupo vulnerable o que satisfaga una necesidad”, aseguró.
Después de generar varios prototipos, en los que se iba avanzando tanto la parte de funcionamiento como la parte física, el “Eyeclip” detecta el 95% de los obstáculos que se encuentran desde 15 centímetros hasta 1,5 metros de la persona que lo está utilizando. Tiene una batería de uso continuo que puede durar hasta 8 horas y que se la puede recargar completamente en dos horas a través de un cable USB.
Su diseño completamente ergonómico, que pesa apenas 40 gramos y tiene un tamaño menor a 5 centímetros, permite que las personas se lo coloquen sobre cualquier tipo de prenda de vestir de manera discreta. También se puede regular el volumen para las personas no videntes que no quieren llamar la atención.
Todo el prototito se lo diseña en el país, pero las piezas y componentes son fabricados en China para luego ser ensamblados aquí mismo por el equipo de HandEyes.
Tenían preventas de 100 dispositivos los mismos que ya han sido fabricados y que se entregarán hasta finales de este mes. Los inventores estiman terminar el año con 1.500 unidades vendidas. El costo del “Eyeclip” es de 150 dólares para las preventas, después de ello tendrá un costo de 200 dólares.
Las Fundaciones, Instituciones o personas que quieran adquirir el dispositivo pueden hacerlo a través de la página web www.hadeyes.org o a través de la red Social Facebook como HandEyes.
Experiencias de quienes han probado el dispositivo
Andrea Sarauz y su hija Anahí fueron parte de las personas que participaron en las pruebas del prototipo de de HanEyes. La pequeña de 7 años sufre de Retinoblastoma (cáncer de retina) lo que la dejó con discapacidad visual desde que tenía 5 meses. Ellas dicen que gracias al dispositivo la niña ha logrado moverse con mayor facilidad y ha perdido el miedo.
“La funcionalidad es maravillosa, Anahí se desenvuelve súper bien siempre suena cuando ella se está acercando a algún obstáculo y puede detenerse por lo que le ayuda mucho con el bastón”, dijo su madre. “Me ayuda a caminar mejor, me alerta con un sonido y si no es con un sonido vibra”, indicó por su parte la pequeña.
Sarauz piensa que es sumamente importante que en el país se desarrollen este tipo de dispositivos para las personas no videntes, ya que para ellas no existen muchos aparatos por lo que es una necesidad. “Quisiéramos que los chicos sigan haciendo investigaciones así y salgan adelante”, señaló.
El periodista Wilson Reinoso también siguió al proyecto de HandEyes desde que presentó en el Banco de Ideas y señaló que es un dispositivo que les permitirá a las personas con discapacidad visual ser independientes
“Con este producto seremos independientes, con este producto cambiamos nuestra historia y nos mostramos con una autonomía para poder caminar y sin ayuda de otra persona. Gracias a ustedes muchachos porque con este producto tan novedoso, que yo lo he probado desde el prototipo, puedo decirles que mi vida ha cambiado y me siento orgulloso de que en nuestro país tengamos produ
¿Cómo nació HandEyes?
HandEyes es un emprendimiento ecuatoriano que arrancó hace tres años en el Banco de Ideas, una plataforma inventada por la Secretaría Nacional de Educación Superior, Ciencia, Tecnología e Innovación (Senescyt) que intenta promover los emprendimientos ecuatorianos que apuntan al cambio de la matriz productiva del país.
Desde allí la empresa ha tenido una evolución constante, que incluso los llevó a participar y ganar el concurso “Una idea para cambiar la historia” organizado por el canal internacional History Channel en diciembre de 2016.
Para la edición de este año de “Una idea para cambiar la historia” Diego Aguinsaca será uno de los jueces, quien seleccionará entre más de 5.000 proyectos de todo el mundo al que intente crear un mejor futuro para la humanidad.
La app genera un campo auditivo para funcionar como un sistema de navegación para ciegos
Unos emprendedores asturianos han lanzado «Lazzus», una aplicación diseñada para mejorar la autonomía de los ciegos y los discapacitados visuales, con el objetivo de aumentar la seguridad del usuario a la vez que aportarle información útil y de interés en sus desplazamientos, según han informado los impulsores de esta iniciativa.
La aplicación, disponible para iOS y Android, es un asistente que acompaña a estas personas en sus desplazamientos creando un campo de visión auditivo y proporcionándoles información relevante del entorno, por ejemplo, si hay un paso de peatones, un cruce de calles o establecimientos concretos.
«Nos sorprendió una persona ciega buscando un GPS en una tienda de electrónica, confiando en que podría ayudarle en sus desplazamientos, pero ningún GPS es accesible. Nos dimos cuenta de que, a pesar de la tecnología que llevamos en la mano gracias a los smartphones, no existía ningún asistente personal que pudiera ayudar a los discapacitados visuales», ha explicado el CEO y socio de Lazzus, Francisco Pérez.
Por ello, según ha señalado Pérez, quisieron ir «un paso más» y crear una app que «realmente aportase un valor añadido», ofreciendo «toda la información» que el usuario no puede ver.
«Lazzus» combina dos fuentes de datos complementarias: Google Placesy Open Street Maps, que juntas proporcionan información «precisa» que permite descubrir multitud de puntos de interés. Además, ofrece que cada usuario pueda añadir sus propios puntos de interés, permite realizar búsquedas en un radio de 100 metros y facilita la exploración del terreno, filtrando “sólo información relevante” que está cerca del usuario.
«Hemos intentado mostrar el entorno a través de distintas formas, para que el usuario elija dependiendo de sus necesidades en cada momento», ha subrayado el emprendedor, que también ha destacado que la app incluye el «Modo Linterna», que indica lo que hay en la dirección que señalas con el móvil; el «Modo 360º», que reconoce lo que está en un radio cerca de ti en todas las direcciones; y el «Modo Transporte», que se activa automáticamente cuando vas en un autobús o coche, indicando el lugar en el que se encuentra el usuario para evitar que se desoriente.
La aplicación, que ofrece una prueba gratuita de dos kilómetros, ha sido testada y avalada por el centro de la ONCE referente en España en accesibilidad y productos de apoyo para personas ciegas (CIDAT), y ha recibido el premio de Google a la startup más innovadora y disruptiva, así como el premio Fundación Vodafone a la innovación en comunicaciones.