Les permitirá vivir algunas experiencias que no pueden realizar.
La realidad virtual hace años se presenta como unas de las tecnologías más disruptivas del futuro. Mucho más cercana a la puerta de los hogares que la propia ciencia ficción, será un nuevo punto de partida en la forma en la que el mundo consuma la información. Su principal virtud radica en la sensación de estar inmersos en un contexto que aparenta ser real, donde el contenido cobra forma de experiencia vivencial que estimula los sentidos y despierta sentimientos y emociones. Una nueva propuesta invita a que esta tecnología sea la ayuda anímica para personas con discapacidad.
Dicha tecnología realmente puede hacer grandes aportes a las personas con discapacidad o con dependencia, debido a su capacidad de incrementar habilidades cognitivas, y formar de una manera mucho más motivadora que con la educación tradicional. Así lo demuestran diversas experiencias que combinan la diversión y el aprendizaje. Juan Antonio Fuentes, un joven arquitecto de Málaga, lleva varios años de estudio en relación a las posibilidades que ofrece la realidad virtual e ideó el bosquejo de una plataforma denominada Feel.
“Esta tecnología podría servir para que aquellas personas con discapacidad disfrutaran de vivencias de un modo virtual que, por sus limitaciones físicas, no pueden llevar a cabo. Por ello he ideado Feel”, aseguró Fuentes. Estas máscaras permitirían a aquellas personas con movilidad reducida poder experimentar ciertas actividades de disfrute que su condición no les permiten hacer periódicamente. Buceo, paracaidismo o maratones son algunos de los diseños exclusivos que ofrece esta tecnología, la cual mediante máscaras especializadas ofrece la sensación de hacer la actividad seleccionada.
La empresa aseguró que existe la posibilidad de realizar diseños exclusivos según las necesidades de quien solicite el servicio. “Estoy en proceso de desarrollo de una plataforma web en la que los usuarios puedan descargarse este tipo de contenidos y disfrutarlos en su casa con unas gafas adaptadas. Por ejemplo, experiencias de buceo o de paracaidismo. El objetivo es que una lesión, por muy grave que sea, no impida a alguien experimentar este tipo de entretenimiento, aunque sea de un modo virtual”, agregó. Aún no existe una fecha de lanzamiento, ya que Fuentes busca financiación. “Dispongo de los medios y el conocimiento para desarrollar Feel. Sólo necesito una inyección económica”, concluyó.
Se trata de la aplicación de una de las tecnologías más utilizadas en el último siglo que podrá hacer su aporte emocional, físico y espiritual a quienes sufren alguna patología discapacitante.
Mateo Salvatto sacó en enero la aplicación “Hablalo” que integra dos servicios: traducción de texto a voz y de voz a texto; ya tiene más de 10 mil descargas y funciona en 10 países.
El emprendedor Matteo Salvatto terminó el secundario con orientación en electrónica y, en lugar de seguir haciendo robots y cohetes, quiso crear algo que contribuyera a la comunidad. Al ser su mamá intérprete en lengua de señas y docente para sordos, pensó en aplicar la tecnología para ayudar a estas personas y creó “Hablalo”, una app que asiste a gente con problemas para comunicarse verbalmente y con dificultades en la audición.
Lanzada en enero, la aplicación ya tiene 10 mil descargas y funciona en 10 países de habla hispana. Sin embargo, Salvatto, de 18 años, no se detiene y está trabajando para agregarle funcionalidades y mejorarla lo más posible para, una vez que eso esté desarrollado, lanzarse a otros proyectos relacionados con discapacidad.
“Yo soy técnico electrónico así que estudié electrónica, programación, desarrollo de plaquetas nada que ver con algo social pero cuando terminé la secundaria quería hacer algo para ayudar a la comunidad que tengo tan cerca. Como mi mamá es profesora de sordos, en todas las cenas familiares escuché hablar sobre sordos. Y un día dije ‘tenemos que aplicar la tecnología para ayudar a estas personas’”, afirmó en una entrevista con José del Río en el programa “Comunidad de Negocios”.
La aplicación integra dos servicios principales: uno de traducción de texto a voz, por el cual la persona sorda escribe lo que quiere decir. Por ejemplo: “¿Dónde hay una farmacia?”. Eso, al presionar un botón, se reproduce en voz alta. Luego, cuando le responden, por ejemplo, “Está a dos cuadras”, presiona un botón que activa un servicio de traducción de voz a texto y esa respuesta aparece como una oración en la parte baja de la pantalla del celular, incluso sin conexión a internet.
“Cualquiera que conozca de tecnología sabe que no es un desarrollo revolucionario. Es agarrar tecnología que ya existía para ponerla en un entorno que ayude a los sordos. Por ahí no nos ponemos a pensar pero no solamente no pueden comunicarse con los oyentes sino que, si están manejando, no escuchan una ambulancia, o cuando suena un timbre, o si hay un bebé llorando. Si tienen que ir a la AFIP tienen que ir con un intérprete y, si el interprete no puede ir, bueno la aplicación surge para dar una herramienta si pasa algo así”, explicó.
La app es gratuita y no hay ninguna parecida en el mundo. En un mes, Salvatto lanzará una nueva versión para iPhone con un modelo freemium por el cual se podrá pagar por una mejora sin publicidad. Pero eso no es todo sino que está pensando en más funcionalidades.”Estoy trabajando en el Ministerio de Ciencia, Tecnología e Innovación de la provincia de Buenos Aires para acerca a la robótica como un deporte o competencia a colegios de la provincia. Pero mi proyecto es mejorar Hablalo para que detecte un timbre que suena o un bebé llorando y le pueda avisar a la persona. Quiero tratar de mejorarla lo más posible y, una vez que esté eso desarrollado, me lanzaré a otros proyectos relacionados con discapacidad”, confió.
Por último, consultado por la opinión de su mamá, dijo que “está muy contenta porque es cierto que las personas sordas no tienen asistencia tecnológica”. “En enero se publicó y ya tiene 10 mil descargas por la demanda de la comunidad. Ellos mismos me sugirieron mejoras”, concluyó.
La aplicación Ceibal-LSU, que enseña lenguaje de señas a los usuarios, busca acortar la brecha que existe entre la comunidad sorda y la oyente, al tender un “puente al revés” para evitar que quienes tienen discapacidad auditiva tengan que ser siempre quienes se esfuerzan por incluirse en un mundo que oye.
Así lo explicó a Efe Mariana Montaldo, jefa de Contenidos del Plan Ceibal, organización que financió el desarrollo de esta aplicación, que fue presentada este viernes en Montevideo.
“Fuimos conociendo las necesidades y vimos la brecha que había entre la comunidad sorda y la oyente. Frente a eso, pensamos que sería bueno crear una aplicación que enseñe a quienes pueden oír el lenguaje de señas”, agregó Montaldo.
La aplicación, llamada Ceibal-LSU (Lengua de Señas Uruguaya), tiene un funcionamiento similar a Duolingo, una plataforma para dispositivos electrónicos que enseña idiomas y cuya dificultad va en aumento en proporción a la evolución del usuario.
Según detalló Montaldo, lo primero que el usuario debe hacer es crear un avatar y seleccionar un área temática en la que indagar, como ser comidas, lugares, animales o colores, entre otras.
En cada una de ellas, la aplicación le mostrará al usuario una serie de vídeos que demuestran cómo se traducen las palabras al lenguaje de señas.
Una vez que el usuario termina el vídeo, la aplicación propondrá una serie de pruebas para confirmar que se comprendió la traducción de las palabras de forma correcta.
Los vídeos demostrativos fueron grabados por 10 alumnos de la Escuela 197, la única institución educativa exclusivamente para sordos que existe en Montevideo.
Aunque la aplicación está dirigida a los niños, y así fue pensada su estética, Montaldo no descartó que pueda ser utilizada también por docentes o adultos que quieran formarse en el lenguaje de señas.
“Una de las cosas que plantea es reflexionar sobre el lugar en el que se pone a la comunidad sorda. No es adaptar algo para que el sordo esté incluido, sino que la propuesta es que ellos nos enseñen a nosotros”, expresó Montaldo.
Respecto a esto último, consideró que es como “tender un puente al revés”.
“Que no sean siempre ellos (la comunidad sorda) quienes tengan que hacer el esfuerzo por incluirse en un mundo de gente que puede oír”, concluyó Montaldo.
La aplicación, que llevó ocho meses de trabajo, está disponible para descargar en dispositivos que funcionan con el sistema operativo de Android.
Un nuevo aparato permite a los ciegos obtener información espacial en un audio muy fácil de comprender.
Por Alberto Iglesias Fraga
Las personas con discapacidad visual o ceguera lo tienen, a veces, muy complicado para superar los obstáculos artificiales que hemos ido creando en nuestras ciudades. Barreras y bolardos, objetos inesperados en la calle, diferencias de altura… la lista de problemas parece casi infinita para este colectivo que, hasta ahora, tenía a su propio instinto, el bastón o la ayuda de perros guía o voluntarios su única forma de moverse sin sufrir un accidente.
El sector tecnológico no ha sido ajeno a las necesidades de este grupo de población, proponiendo un sinfín de soluciones más o menos innovadoras con qué facilitar la movilidad de las personas con discapacidad visual. Entre ellas, destaca Eyesynth, un sistema de navegación, reconocimiento y comprensión del entorno en tiempo real no invasivo y muy sencillo de utilizar.
TICbeat tuvo la oportunidad de conocer este interesante proyecto de la mano de Antonio Quesada, CEO de Eyesynth. He aquí la entrevista completa:
¿Cómo surgió la idea de poner en marcha Eyesynth?
La idea surgió un poco como consecuencia frente a la falta de respuestas tecnológicas a una comunidad tan grande de gente. Desde el perro guía y el bastón, no hay un estándar de movilidad tecnológico y en Eyesynth nos hemos propuesto cambiar eso. Nosotros no pretendemos hacer sustituciones, sino complementar las opciones existentes con una herramienta actualizada y que permita ampliar muchísimo la movilidad y la independencia de la persona que lo use.
¿Cómo funcionan vuestras gafas y el software que las acompaña? ¿En qué principios científicos y tecnológicos se sostiene?
Nuestra tecnología hace un análisis tridimensional del entorno y convierte esa información espacial en un audio muy fácil de comprender, un siseo parecido al rumor del mar. Lo cierto es que nos apoyamos mucho en la ciencia y en el principio de la sinestesia en el que el cerebro tiene la habilidad de poder reinterpretar la información que le da un sentido mediante otro. También nuestros planteamientos están relacionados con la plasticidad del cerebro: es capaz de crear nuevas conexiones neuronales entre las zonas auditiva y visual para mejorar la comunicación entre ellas. El cerebro es capaz de “recablearse”
¿En qué casos concretos puede la tecnología de Eyesynth ayudar a las personas con discapacidades visuales?
Claro, hay varios casos en los que las gafas se muestran muy útiles, por ejemplo, en la detección de obstáculos aéreos, como pueden ser toldos, semáforos o extintores de pared. También es importante la amplitud de la imagen que se analiza, hasta 6 metros de distancia. Un factor crítico es cada cuánto tiempo se actualiza la información al usuario. En nuestro caso, 60 veces por segundo, lo que nos da mucho margen de movilidad al estar advertidos lo suficientemente pronto de los objetos que tenemos delante.
¿Cuáles son las principales barreras que os encontrasteis a la hora de desarrollar vuestra idea?
Primero la gran cantidad de cálculo que tenía que hacer el sistema, con lo cual a nivel de electrónica es todo muy complejo, y luego existe una barrera más de tipo social. Ha habido muchas propuestas tecnológicas que no han estado suficientemente bien diseñadas y que han hecho crecer un escepticismo hacia la posible potencia y utilidad de tecnologías como la nuestra.
¿Está ya en fase de comercialización vuestra tecnología?
Estamos ya en la última fase de producción, vamos a entrar en proceso de fabricación masiva en breve para poder salir al mercado a principios del año que viene. Además, estamos muy contentos de poder contar con un amplio grupo de usuarios y testers que están dándonos su feedback para mejorar el producto en esta última etapa.
¿Cuáles son vuestras previsiones de alcance en el mercado?
La verdad es que es difícil hacer un análisis a priori cuando estamos rompiendo hielo, pero dado que tenemos un precio lo más ajustado y competitivo posible, y una necesidad real de mercado, las expectativas son buenas.
¿El desarrollo de la tecnología ha sido propio o habéis contado con terceros? ¿Ha sido 100% creada en España?
Exacto, ha sido un desarrollo interno propio. 100% creado en España.
¿Cuál ha sido la colaboración de instituciones y organismos públicos a la hora de desarrollar la empresa, más allá del programa Horizonte 2020 del que formáis parte?
A nivel Institucional estamos en contacto con varios actores principales en materia de movilidad y discapacidad en España. Como iniciativas e instituciones privadas, estamos siendo muy apoyados por los medios de comunicación en la divulgación del proyecto, además hemos recibido varios premios en los últimos meses en materia de innovación y emprendimiento que nos están dando visibilidad y un gran apoyo.
Financiación: ¿habéis emprendido ya rondas de financiación?
Estamos estudiando diversas posibilidades, nuestro objetivo es expandirnos y que el proyecto tome un camino global, y para ello estamos abiertos a varias posibilidades entre las que se incluyen el abrir ronda de financiación.
¿Cuántas personas estáis involucradas actualmente en el proyecto?
Actualmente el núcleo del proyecto lo forman 15 personas, pero el proyecto va mucho más allá del equipo de desarrollo en sí. Con los probadores, consejeros y personas involucradas en él de una manera u otra, superamos la treintena.
Próximos retos del proyecto, algún hito próximo que podamos adelantar a los lectores
Nuestros hitos más cercanos son llegar al mercado y empezar una distribución europea, pero si es verdad que estamos trabajando en varios focos. Por ahora os podemos decir que en nuestra hoja de ruta tenemos un montón de novedades emocionantes que llegarán a las gafas en forma de actualización de software.
La aplicación está dirigida a los niños, pero también puede ser usada por docentes o adultos que quieran aprender el lenguaje de señas
La aplicación Ceibal-LSU, que enseña lenguaje de señas a los usuarios, busca acortar la brecha que existe entre la comunidad sorda y la oyente, al tender un “puente al revés” para evitar que quienes tienen discapacidad auditiva tengan que ser siempre quienes se esfuerzan por incluirse en un mundo que oye.
Así lo explicó a Efe Mariana Montaldo, jefa de Contenidos del Plan Ceibal, organización que financió el desarrollo de esta aplicación, que fue presentada este viernes en Montevideo.
“Fuimos conociendo las necesidades y vimos la brecha que había entre la comunidad sorda y la oyente. Frente a eso, pensamos que sería bueno crear una aplicación que enseñe a quienes pueden ‘oír’ el lenguaje de señas”, agregó Montaldo.
La aplicación, llamada Ceibal-LSU (Lengua de Señas Uruguaya), tiene un funcionamiento similar a Duolingo, una plataforma para dispositivos electrónicos que enseña idiomas y cuya dificultad va en aumento en proporción a la evolución del usuario.
Según detalló Montaldo, lo primero que el usuario debe hacer es crear un avatar y seleccionar un área temática en la que indagar, como ser comidas, lugares, animales o colores, entre otras.
En cada una de ellas, la aplicación le mostrará al usuario una serie de vídeos que demuestran cómo se traducen las palabras al lenguaje de señas.
Una vez que el usuario termina el vídeo, la aplicación propondrá una serie de pruebas para confirmar que se comprendió la traducción de las palabras de forma correcta.
Los vídeos demostrativos fueron grabados por 10 alumnos de la Escuela 197, la única institución educativa exclusivamente para sordos que existe en Montevideo.
Aunque la aplicación está dirigida a los niños, y así fue pensada su estética, Montaldo no descartó que pueda ser utilizada también por docentes o adultos que quieran formarse en el lenguaje de señas.
“Una de las cosas que plantea es reflexionar sobre el lugar en el que se pone a la comunidad sorda. No es adaptar algo para que el sordo esté incluido, sino que la propuesta es que ellos nos enseñen a nosotros”, expresó Montaldo.
Respecto a esto último, consideró que es como “tender un puente al revés”.
“Que no sean siempre ellos (la comunidad sorda) quienes tengan que hacer el esfuerzo por incluirse en un mundo de gente que puede oír”, concluyó Montaldo.
La aplicación, que llevó ocho meses de trabajo, está disponible para descargar en dispositivos que funcionan con el sistema operativo de Android.