La aplicación está dirigida a los niños, pero también puede ser usada por docentes o adultos que quieran aprender el lenguaje de señas
La aplicación Ceibal-LSU, que enseña lenguaje de señas a los usuarios, busca acortar la brecha que existe entre la comunidad sorda y la oyente, al tender un “puente al revés” para evitar que quienes tienen discapacidad auditiva tengan que ser siempre quienes se esfuerzan por incluirse en un mundo que oye.
Así lo explicó a Efe Mariana Montaldo, jefa de Contenidos del Plan Ceibal, organización que financió el desarrollo de esta aplicación, que fue presentada este viernes en Montevideo.
“Fuimos conociendo las necesidades y vimos la brecha que había entre la comunidad sorda y la oyente. Frente a eso, pensamos que sería bueno crear una aplicación que enseñe a quienes pueden ‘oír’ el lenguaje de señas”, agregó Montaldo.
La aplicación, llamada Ceibal-LSU (Lengua de Señas Uruguaya), tiene un funcionamiento similar a Duolingo, una plataforma para dispositivos electrónicos que enseña idiomas y cuya dificultad va en aumento en proporción a la evolución del usuario.
Según detalló Montaldo, lo primero que el usuario debe hacer es crear un avatar y seleccionar un área temática en la que indagar, como ser comidas, lugares, animales o colores, entre otras.
En cada una de ellas, la aplicación le mostrará al usuario una serie de vídeos que demuestran cómo se traducen las palabras al lenguaje de señas.
Una vez que el usuario termina el vídeo, la aplicación propondrá una serie de pruebas para confirmar que se comprendió la traducción de las palabras de forma correcta.
Los vídeos demostrativos fueron grabados por 10 alumnos de la Escuela 197, la única institución educativa exclusivamente para sordos que existe en Montevideo.
Aunque la aplicación está dirigida a los niños, y así fue pensada su estética, Montaldo no descartó que pueda ser utilizada también por docentes o adultos que quieran formarse en el lenguaje de señas.
“Una de las cosas que plantea es reflexionar sobre el lugar en el que se pone a la comunidad sorda. No es adaptar algo para que el sordo esté incluido, sino que la propuesta es que ellos nos enseñen a nosotros”, expresó Montaldo.
Respecto a esto último, consideró que es como “tender un puente al revés”.
“Que no sean siempre ellos (la comunidad sorda) quienes tengan que hacer el esfuerzo por incluirse en un mundo de gente que puede oír”, concluyó Montaldo.
La aplicación, que llevó ocho meses de trabajo, está disponible para descargar en dispositivos que funcionan con el sistema operativo de Android.
La app genera un campo auditivo para funcionar como un sistema de navegación para ciegos
Unos emprendedores asturianos han lanzado «Lazzus», una aplicación diseñada para mejorar la autonomía de los ciegos y los discapacitados visuales, con el objetivo de aumentar la seguridad del usuario a la vez que aportarle información útil y de interés en sus desplazamientos, según han informado los impulsores de esta iniciativa.
La aplicación, disponible para iOS y Android, es un asistente que acompaña a estas personas en sus desplazamientos creando un campo de visión auditivo y proporcionándoles información relevante del entorno, por ejemplo, si hay un paso de peatones, un cruce de calles o establecimientos concretos.
«Nos sorprendió una persona ciega buscando un GPS en una tienda de electrónica, confiando en que podría ayudarle en sus desplazamientos, pero ningún GPS es accesible. Nos dimos cuenta de que, a pesar de la tecnología que llevamos en la mano gracias a los smartphones, no existía ningún asistente personal que pudiera ayudar a los discapacitados visuales», ha explicado el CEO y socio de Lazzus, Francisco Pérez.
Por ello, según ha señalado Pérez, quisieron ir «un paso más» y crear una app que «realmente aportase un valor añadido», ofreciendo «toda la información» que el usuario no puede ver.
«Lazzus» combina dos fuentes de datos complementarias: Google Placesy Open Street Maps, que juntas proporcionan información «precisa» que permite descubrir multitud de puntos de interés. Además, ofrece que cada usuario pueda añadir sus propios puntos de interés, permite realizar búsquedas en un radio de 100 metros y facilita la exploración del terreno, filtrando “sólo información relevante” que está cerca del usuario.
«Hemos intentado mostrar el entorno a través de distintas formas, para que el usuario elija dependiendo de sus necesidades en cada momento», ha subrayado el emprendedor, que también ha destacado que la app incluye el «Modo Linterna», que indica lo que hay en la dirección que señalas con el móvil; el «Modo 360º», que reconoce lo que está en un radio cerca de ti en todas las direcciones; y el «Modo Transporte», que se activa automáticamente cuando vas en un autobús o coche, indicando el lugar en el que se encuentra el usuario para evitar que se desoriente.
La aplicación, que ofrece una prueba gratuita de dos kilómetros, ha sido testada y avalada por el centro de la ONCE referente en España en accesibilidad y productos de apoyo para personas ciegas (CIDAT), y ha recibido el premio de Google a la startup más innovadora y disruptiva, así como el premio Fundación Vodafone a la innovación en comunicaciones.
Samsung Electronics anunció que lanzará ‘Relúmino,’ una aplicación de asistencia visual para las personas con baja visión.
‘Relúmino’ es una aplicación de asistencia visual que funciona en conjunto con el Gear VR para aumentar la visión de las personas con deficiencia visual. Los usuarios con los modelos más recientes de los teléfonos inteligentes Galaxy, incluyendo los Galaxy S7, S7 Edge, S8 y S8+ conseguirán descargar ‘Relúmino’ de forma gratuita en Oculus Store con soporte tanto para inglés como para coreano. ‘Relúmino’ no proporciona soporte para los que son totalmente ciegos.
“Relúmino cambiará la vida para los 240 millones de personas con deficiencia visual alrededor del mundo y prometemos un apoyo sólido y continuo”, dijo Jaiil Lee, vicepresidente y responsable del Centro de Creatividad e Innovación en Samsung Electronics.
La aplicación de asistencia visual procesa las imágenes a partir de los vídeos proyectados por la cámara trasera de un teléfono inteligente y hace que las imágenes sean apropiadas para las personas con deficiencia visual. Más específicamente, sus principales características incluyen aumentar y minimizar la imagen; resaltar el contorno de la imagen; ajustar el contraste de los colores y el brillo; revertir el color; y filtrar los colores de la pantalla. El efecto final es que ‘Relúmino’ permite que las personas con deficiencia visual vean las imágenes más claras cuando están leyendo un libro o mirando a un objeto, por ejemplo.
Para aquellos que padecen de un punto ciego en la visión o la Visión en Túnel, que es la pérdida de la visión periférica con la retención de la visión central, ‘Relúmino’ ayuda remapeando las imágenes desapercibidas para colocarlas en las partes visibles del ojo. Específicamente, cuando los usuarios establecen los tamaños de un punto ciego o visión en túnel para el uso por primera vez, la aplicación automáticamente coloca el punto ciego en las partes circundantes visibles y coloca las imágenes dentro del ‘túnel’ o el rango visible, ayudando los usuarios que tienen un defecto del campo visual para que vean las cosas mejor. A diferencia de las otras asistencias visuales con calidad semejante que frecuentemente cuestan miles de dólares, los usuarios de ‘Relúmino’ pueden desfrutar de las características equivalentes por un precio mucho más asequible.
A principios de este año en Barcelona, Relúmino atrajo mucha atención en el congreso Mundial de la Telefonía Móvil, el mayor encuentro del mundo para la industria de la telefonía móvil. El programa incubador interno de Samsung, el C-Lab, recibió opiniones positivas por presentar una tecnología desarrollada para ayudar las personas con deficiencia física en lugar de perseguir las ganancias con los dispositivos convencionales de la VR (realidad virtual).
Elegido como un proyecto de C-Lab el pasado mes de mayo, se proyectó inicialmente Relúmino para ayudar para que las personas con deficiencia visual desfruten de las actividades cotidianas tales como ver la TV y leer libros como las personas sin discapacidad física. Los miembros del proyecto dieron el nombre ‘Relúmino’ a su aplicación lo que significa ‘Re-iluminar’ en latín, ya que querían ayudar que las personas con deficiencia visual sientan la alegría de las actividades cotidianas que la mayoría de las personas habitualmente dé por hecho.
Mientras se concluye dentro del año la mayoría de los proyectos de C-Lab, Relúmino continuará a efectuar las tareas de seguimiento. Piensa en desarrollar productos tipo gafas para que las personas con deficiencia visual puedan usar las asistencias visuales en su vida cotidiana sin llamar las atenciones de los demás. Sumando a esto, el equipo tratará de forma continua las inconveniencias que surjan de la aplicación recientemente liberada obteniendo las opiniones de los usuarios.
Lanzado en diciembre de 2012, el C-Lab es un programa de negocio para empresas emergentes (startup) que fomenta una cultura corporativa creativa e ideas innovadoras entre los empleados de Samsung. El programa da apoyo a los proyectos que contribuyen a la sociedad como ‘Relúmino’ además de los proyectos de TI relacionados con la Internet de las Cosas (IoT), los dispositivos ponibles (wearables) y la realidad virtual.
Google Maps ha añadido una herramienta para que los ciudadanos a los que les “apasiona ayudar a la gente a navegar mejor y a explorar su ciudad” den cuenta sobre la accesibilidad o falta de ella que tienen los lugares que visiten.
Google informó en un comunicado que esta herramienta, que introduce una nueva manera de añadir detalles de accesibilidad a los lugares de Google Maps, tiene como objetivo ayudar a las decenas de millones de personas que no pueden acceder a un sitio si no tiene una entrada accesible para silla de ruedas o no cuenta con un ascensor.
Para ello, el usuario deberá desplegar el menú dentro de Google Maps, pulsar en ‘Tus contribuciones’ y después en ‘Proporciona la información que falta’, donde ya se podrán indicar cuestiones sobre accesibilidad, como por ejemplo, si tiene ascensor o no, si tiene acceso para silla de ruedas o si cuenta con aparcamiento para personas con movilidad reducida.
Por último, Google informó de que, con la ayuda de los usuarios, ha podido añadir información de accesibilidad a casi 7 millones de lugares alrededor del mundo. Al compartir sus conocimientos locales, esta empresa tecnológica remarcó que “está ayudando a acercarnos aún más a permitir que todos, en todas partes, descubran y exploren más fácilmente los lugares que mejor se adaptan a sus necesidades individuales”.
El software capaz de entender imágenes, sonidos y textos permite crear herramientas que acercan los beneficios de la tecnología a la gente con problemas auditivos y cognitivos como el autismo.
Por Tom Simonite | traducido por Teresa Woods
Las reglas de la Comisión Federal de Comunicaciones de Estados Unidos (FCC, por sus siglas en inglés) obligan a que los canales de televisión ofrezcan subtítulos de los diálogos, los efectos de sonido y las reacciones del público como las risas para los espectadores con problemas de audición. Aunque YouTube no está obligada a tal requisito, ha empezado a cumplirlo gracias a la tecnología de aprendizaje automático de Google.
Desde 2009 YouTube ha empleado software de reconocimiento del habla para generar subtítulos automáticamente, los cuales se usan 15 millones de veces cada día. Ahora acaba de lanzar unos algoritmos que identifican aplausos, risas y música y los señalas dentro de los subtítulos. Y la lista de elementos podría aumentar, ya que el software también puede identificar sonidos como suspiros, ladridos y golpes.
La empresa afirma que las pruebas indican que la prestación mejora significativamente la experiencia de los usuarios con problemas de audición (y de cualquiera que necesite mantener el volumen bajo). El responsable de producto de YouTube Liat Kaver, que es sordo, afirma: “Para las personas como yo, que necesitamos adaptaciones en algunas situaciones, el aprendizaje automático nos ofrece la misma independencia que tiene el resto de la gente”.
De hecho, el proyecto de YouTube no es el único que intenta generar nuevas herramientas de accesibilidad mediante la potencia cada vez mayor y el carácter práctico del aprendizaje automático. La industria de la computación mejorado la capacidad de interpretar imágenes, textos o sonidos debido a los posibles beneficios en áreas como la publicidad, las búsquedas y la computación en la nube. Pero el software capaz de entender el mundo tiene aplicaciones que van mucho más allá de eso.
El año pasado, Facebook lanzó una prestación que utiliza los avances de la empresa en reconocimiento de imágenes para generar descripciones de las fotos que publican los amigos de un usuario, por ejemplo. Y unos investigadores de IBM están empleando software de procesamiento del lenguaje desarrollado bajo el proyecto Watson para elaborar una herramienta llamada Content Clarifier (Aclarador de contenidos) para ayudar a la gente con discapacidades cognitivas o mentales como el autismo y la demencia. Puede reemplazar giros lingüísticos como “un resfriado de caballo” con términos más literales y limpiar o dividir frases más largas con múltiples cláusulas y lenguaje indirecto.
La Universidad de Massachusetts en Boston (EEUU) está ayudando a probar este sistema en personas con problemas de lectura o discapacidades cognitivas. El investigador de IBM Will Scott, que colabora en el proyecto, dice que la empresa está hablando con una organización que ayuda a alumnos de secundaria con autismo a realizar la transición a la vida universitaria. El objetivo es probar el sistema como estrategia para ayudarles a entender los documentos administrativos y educativos. Scott detalla: “Antes no existían la potencia computacional ni los algoritmos y servicios basados en la nube como Watson para ejecutar este tipo de cosas”.
La investigadora de la Universidad de Lovaina (Bélgica) Ineke Schuurman afirma el desarrollo de nuevas herramientas de accesibilidad es muy importante, ya que puede impedir que algunos colectivos desaventajados se queden rezagados mientras la sociedad aumenta su dependencia de ordenadores y dispositivos móviles.
Schuurman es una de las responsables de un proyecto de la Unión Europea que está probando un software de simplificación propio para personas con discapacidades intelectuales. La tecnología ha sido integrada en apps que se conectan con Gmail y redes sociales como Facebook. “La gente con discapacidades intelectuales, o cualquier otra, querrá hacer lo mismo que hacen sus amigos y hermanos, utilizar smartphones, tabletas y redes sociales“, señala.
Austin Lubetkin, que tiene un trastorno del espectro autista, ha colaborado con la organización sin ánimo de lucro Artists with Autism para ayudar a otros pacientes a volverse más independientes. Celebra las investigaciones como la de IBM, pero dice que será un reto asegurarse de que las herramientas funcionan bien. Un algoritmo de aprendizaje automático que recomienda una película que al final resulta decepcionante es una cosa; un error que lleve al usuario a malinterpretar a un amigo es otra.
Aun así, Lubetkin, que trabaja en una start-up mientras cursa una licenciatura universitaria, es optimista y cree que el aprendizaje automático ofrecerá nuevas oportunidades a personas con discapacidades durante los próximos años. Recientemente se basó en una tecnología de reconocimiento de imágenes de la start-up Clarify para prototipar una app de navegación que ofrece indicaciones en forma de puntos de referencia, inspirada por su propia lucha para interpretar la información en formato de texto y diagramas de las apps convencionales mientras conducía. La experta concluye: “Sinceramente, la inteligencia artificial puede nivelar el campo de juego”.