La app que permite a las personas sordas comunicarse, creada por un emprendedor argentino de 18 años

Mateo Salvatto sacó en enero la aplicación “Hablalo” que integra dos servicios: traducción de texto a voz y de voz a texto; ya tiene más de 10 mil descargas y funciona en 10 países.

El emprendedor Matteo Salvatto terminó el secundario con orientación en electrónica y, en lugar de seguir haciendo robots y cohetes, quiso crear algo que contribuyera a la comunidad. Al ser su mamá intérprete en lengua de señas y docente para sordos, pensó en aplicar la tecnología para ayudar a estas personas y creó “Hablalo”, una app que asiste a gente con problemas para comunicarse verbalmente y con dificultades en la audición.

Lanzada en enero, la aplicación ya tiene 10 mil descargas y funciona en 10 países de habla hispana. Sin embargo, Salvatto, de 18 años, no se detiene y está trabajando para agregarle funcionalidades y mejorarla lo más posible para, una vez que eso esté desarrollado, lanzarse a otros proyectos relacionados con discapacidad.

“Yo soy técnico electrónico así que estudié electrónica, programación, desarrollo de plaquetas nada que ver con algo social pero cuando terminé la secundaria quería hacer algo para ayudar a la comunidad que tengo tan cerca. Como mi mamá es profesora de sordos, en todas las cenas familiares escuché hablar sobre sordos. Y un día dije ‘tenemos que aplicar la tecnología para ayudar a estas personas’”, afirmó en una entrevista con José del Río en el programa “Comunidad de Negocios”.

La aplicación integra dos servicios principales: uno de traducción de texto a voz, por el cual la persona sorda escribe lo que quiere decir. Por ejemplo: “¿Dónde hay una farmacia?”. Eso, al presionar un botón, se reproduce en voz alta. Luego, cuando le responden, por ejemplo, “Está a dos cuadras”, presiona un botón que activa un servicio de traducción de voz a texto y esa respuesta aparece como una oración en la parte baja de la pantalla del celular, incluso sin conexión a internet.

“Cualquiera que conozca de tecnología sabe que no es un desarrollo revolucionario. Es agarrar tecnología que ya existía para ponerla en un entorno que ayude a los sordos. Por ahí no nos ponemos a pensar pero no solamente no pueden comunicarse con los oyentes sino que, si están manejando, no escuchan una ambulancia, o cuando suena un timbre, o si hay un bebé llorando. Si tienen que ir a la AFIP tienen que ir con un intérprete y, si el interprete no puede ir, bueno la aplicación surge para dar una herramienta si pasa algo así”, explicó.

La app es gratuita y no hay ninguna parecida en el mundo. En un mes, Salvatto lanzará una nueva versión para iPhone con un modelo freemium por el cual se podrá pagar por una mejora sin publicidad. Pero eso no es todo sino que está pensando en más funcionalidades.”Estoy trabajando en el Ministerio de Ciencia, Tecnología e Innovación de la provincia de Buenos Aires para acerca a la robótica como un deporte o competencia a colegios de la provincia. Pero mi proyecto es mejorar Hablalo para que detecte un timbre que suena o un bebé llorando y le pueda avisar a la persona. Quiero tratar de mejorarla lo más posible y, una vez que esté eso desarrollado, me lanzaré a otros proyectos relacionados con discapacidad”, confió.

Por último, consultado por la opinión de su mamá, dijo que “está muy contenta porque es cierto que las personas sordas no tienen asistencia tecnológica”. “En enero se publicó y ya tiene 10 mil descargas por la demanda de la comunidad. Ellos mismos me sugirieron mejoras”, concluyó.

Fuente: elliberal.com.ar

Descarga la App

App enseña lengua de señas para acortar brecha entre sordo y oyente

La aplicación Ceibal-LSU, que enseña lenguaje de señas a los usuarios, busca acortar la brecha que existe entre la comunidad sorda y la oyente. (Foto: Getty Images)

La aplicación Ceibal-LSU, que enseña lenguaje de señas a los usuarios, busca acortar la brecha que existe entre la comunidad sorda y la oyente, al tender un “puente al revés” para evitar que quienes tienen discapacidad auditiva tengan que ser siempre quienes se esfuerzan por incluirse en un mundo que oye.

Así lo explicó a Efe Mariana Montaldo, jefa de Contenidos del Plan Ceibal, organización que financió el desarrollo de esta aplicación, que fue presentada este viernes en Montevideo.

“Fuimos conociendo las necesidades y vimos la brecha que había entre la comunidad sorda y la oyente. Frente a eso, pensamos que sería bueno crear una aplicación que enseñe a quienes pueden oír el lenguaje de señas”, agregó Montaldo.

La aplicación, llamada Ceibal-LSU (Lengua de Señas Uruguaya), tiene un funcionamiento similar a Duolingo, una plataforma para dispositivos electrónicos que enseña idiomas y cuya dificultad va en aumento en proporción a la evolución del usuario.

Según detalló Montaldo, lo primero que el usuario debe hacer es crear un avatar y seleccionar un área temática en la que indagar, como ser comidas, lugares, animales o colores, entre otras.

En cada una de ellas, la aplicación le mostrará al usuario una serie de vídeos que demuestran cómo se traducen las palabras al lenguaje de señas.

Una vez que el usuario termina el vídeo, la aplicación propondrá una serie de pruebas para confirmar que se comprendió la traducción de las palabras de forma correcta.

Los vídeos demostrativos fueron grabados por 10 alumnos de la Escuela 197, la única institución educativa exclusivamente para sordos que existe en Montevideo.

Aunque la aplicación está dirigida a los niños, y así fue pensada su estética, Montaldo no descartó que pueda ser utilizada también por docentes o adultos que quieran formarse en el lenguaje de señas.

“Una de las cosas que plantea es reflexionar sobre el lugar en el que se pone a la comunidad sorda. No es adaptar algo para que el sordo esté incluido, sino que la propuesta es que ellos nos enseñen a nosotros”, expresó Montaldo.

Respecto a esto último, consideró que es como “tender un puente al revés”.

“Que no sean siempre ellos (la comunidad sorda) quienes tengan que hacer el esfuerzo por incluirse en un mundo de gente que puede oír”, concluyó Montaldo.

La aplicación, que llevó ocho meses de trabajo, está disponible para descargar en dispositivos que funcionan con el sistema operativo de Android.

EFE

Fuente:  peru.com

Eyesynth: un sistema de navegación, reconocimiento y comprensión del entorno para ciegos

Un nuevo aparato permite a los ciegos obtener información espacial en un audio muy fácil de comprender.

Por Alberto Iglesias Fraga

Una startup española busca facilitar la movilidad de las personas con discapacidad visual. Foto: TICBeat

Las personas con discapacidad visual o ceguera lo tienen, a veces, muy complicado para superar los obstáculos artificiales que hemos ido creando en nuestras ciudades. Barreras y bolardos, objetos inesperados en la calle, diferencias de altura… la lista de problemas parece casi infinita para este colectivo que, hasta ahora, tenía a su propio instinto, el bastón o la ayuda de perros guía o voluntarios su única forma de moverse sin sufrir un accidente.

El sector tecnológico no ha sido ajeno a las necesidades de este grupo de población, proponiendo un sinfín de soluciones más o menos innovadoras con qué facilitar la movilidad de las personas con discapacidad visual. Entre ellas, destaca Eyesynth, un sistema de navegación, reconocimiento y comprensión del entorno en tiempo real no invasivo y muy sencillo de utilizar.

TICbeat tuvo la oportunidad de conocer este interesante proyecto de la mano de Antonio Quesada, CEO de Eyesynth. He aquí la entrevista completa:

¿Cómo surgió la idea de poner en marcha Eyesynth?
La idea surgió un poco como consecuencia frente a la falta de respuestas tecnológicas a una comunidad tan grande de gente. Desde el perro guía y el bastón, no hay un estándar de movilidad tecnológico y en Eyesynth nos hemos propuesto cambiar eso. Nosotros no pretendemos hacer sustituciones, sino complementar las opciones existentes con una herramienta actualizada y que permita ampliar muchísimo la movilidad y la independencia de la persona que lo use.

¿Cómo funcionan vuestras gafas y el software que las acompaña? ¿En qué principios científicos y tecnológicos se sostiene?
Nuestra tecnología hace un análisis tridimensional del entorno y convierte esa información espacial en un audio muy fácil de comprender, un siseo parecido al rumor del mar. Lo cierto es que nos apoyamos mucho en la ciencia y en el principio de la sinestesia en el que el cerebro tiene la habilidad de poder reinterpretar la información que le da un sentido mediante otro. También nuestros planteamientos están relacionados con la plasticidad del cerebro: es capaz de crear nuevas conexiones neuronales entre las zonas auditiva y visual para mejorar la comunicación entre ellas. El cerebro es capaz de “recablearse”

¿En qué casos concretos puede la tecnología de Eyesynth ayudar a las personas con discapacidades visuales?
Claro, hay varios casos en los que las gafas se muestran muy útiles, por ejemplo, en la detección de obstáculos aéreos, como pueden ser toldos, semáforos o extintores de pared. También es importante la amplitud de la imagen que se analiza, hasta 6 metros de distancia. Un factor crítico es cada cuánto tiempo se actualiza la información al usuario. En nuestro caso, 60 veces por segundo, lo que nos da mucho margen de movilidad al estar advertidos lo suficientemente pronto de los objetos que tenemos delante.

¿Cuáles son las principales barreras que os encontrasteis a la hora de desarrollar vuestra idea?
Primero la gran cantidad de cálculo que tenía que hacer el sistema, con lo cual a nivel de electrónica es todo muy complejo, y luego existe una barrera más de tipo social. Ha habido muchas propuestas tecnológicas que no han estado suficientemente bien diseñadas y que han hecho crecer un escepticismo hacia la posible potencia y utilidad de tecnologías como la nuestra.

¿Está ya en fase de comercialización vuestra tecnología?
Estamos ya en la última fase de producción, vamos a entrar en proceso de fabricación masiva en breve para poder salir al mercado a principios del año que viene. Además, estamos muy contentos de poder contar con un amplio grupo de usuarios y testers que están dándonos su feedback para mejorar el producto en esta última etapa.

¿Cuáles son vuestras previsiones de alcance en el mercado?
La verdad es que es difícil hacer un análisis a priori cuando estamos rompiendo hielo, pero dado que tenemos un precio lo más ajustado y competitivo posible, y una necesidad real de mercado, las expectativas son buenas.

¿El desarrollo de la tecnología ha sido propio o habéis contado con terceros? ¿Ha sido 100% creada en España?
Exacto, ha sido un desarrollo interno propio. 100% creado en España.

¿Cuál ha sido la colaboración de instituciones y organismos públicos a la hora de desarrollar la empresa, más allá del programa Horizonte 2020 del que formáis parte?
A nivel Institucional estamos en contacto con varios actores principales en materia de movilidad y discapacidad en España. Como iniciativas e instituciones privadas, estamos siendo muy apoyados por los medios de comunicación en la divulgación del proyecto, además hemos recibido varios premios en los últimos meses en materia de innovación y emprendimiento que nos están dando visibilidad y un gran apoyo.

“Desde el perro guía y el bastón, no hay un estándar de movilidad tecnológico para ciegos”, asegura Antonio Quesada. Foto: TicBea
“Desde el perro guía y el bastón, no hay un estándar de movilidad tecnológico para ciegos”, asegura Antonio Quesada. Foto: TicBeat

Financiación: ¿habéis emprendido ya rondas de financiación?
Estamos estudiando diversas posibilidades, nuestro objetivo es expandirnos y que el proyecto tome un camino global, y para ello estamos abiertos a varias posibilidades entre las que se incluyen el abrir ronda de financiación.

¿Cuántas personas estáis involucradas actualmente en el proyecto?
Actualmente el núcleo del proyecto lo forman 15 personas, pero el proyecto va mucho más allá del equipo de desarrollo en sí. Con los probadores, consejeros y personas involucradas en él de una manera u otra, superamos la treintena.

Próximos retos del proyecto, algún hito próximo que podamos adelantar a los lectores
Nuestros hitos más cercanos son llegar al mercado y empezar una distribución europea, pero si es verdad que estamos trabajando en varios focos. Por ahora os podemos decir que en nuestra hoja de ruta tenemos un montón de novedades emocionantes que llegarán a las gafas en forma de actualización de software.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE TICBeat. VER ORIGINAL AQUÍ. PROHIBIDA SU REPRODUCCIÓN.

Fuente: sinembargo.mx

App uruguaya enseña lengua de señas para acortar brecha entre sordo y oyente

La aplicación está dirigida a los niños, pero también puede ser usada por docentes o adultos que quieran aprender el lenguaje de señas

La aplicación tiene un funcionamiento similar a Duolingo. (Foto: Ceibal-LSU)
La aplicación tiene un funcionamiento similar a Duolingo. (Foto: Ceibal-LSU)

La aplicación Ceibal-LSU, que enseña lenguaje de señas a los usuarios, busca acortar la brecha que existe entre la comunidad sorda y la oyente, al tender un “puente al revés” para evitar que quienes tienen discapacidad auditiva tengan que ser siempre quienes se esfuerzan por incluirse en un mundo que oye.

Así lo explicó a Efe Mariana Montaldo, jefa de Contenidos del Plan Ceibal, organización que financió el desarrollo de esta aplicación, que fue presentada este viernes en Montevideo.

“Fuimos conociendo las necesidades y vimos la brecha que había entre la comunidad sorda y la oyente. Frente a eso, pensamos que sería bueno crear una aplicación que enseñe a quienes pueden ‘oír’ el lenguaje de señas”, agregó Montaldo.

La aplicación, llamada Ceibal-LSU (Lengua de Señas Uruguaya), tiene un funcionamiento similar a Duolingo, una plataforma para dispositivos electrónicos que enseña idiomas y cuya dificultad va en aumento en proporción a la evolución del usuario.

Según detalló Montaldo, lo primero que el usuario debe hacer es crear un avatar y seleccionar un área temática en la que indagar, como ser comidas, lugares, animales o colores, entre otras.

En cada una de ellas, la aplicación le mostrará al usuario una serie de vídeos que demuestran cómo se traducen las palabras al lenguaje de señas.

Una vez que el usuario termina el vídeo, la aplicación propondrá una serie de pruebas para confirmar que se comprendió la traducción de las palabras de forma correcta.

Los vídeos demostrativos fueron grabados por 10 alumnos de la Escuela 197, la única institución educativa exclusivamente para sordos que existe en Montevideo.

Aunque la aplicación está dirigida a los niños, y así fue pensada su estética, Montaldo no descartó que pueda ser utilizada también por docentes o adultos que quieran formarse en el lenguaje de señas.

“Una de las cosas que plantea es reflexionar sobre el lugar en el que se pone a la comunidad sorda. No es adaptar algo para que el sordo esté incluido, sino que la propuesta es que ellos nos enseñen a nosotros”, expresó Montaldo.

Respecto a esto último, consideró que es como “tender un puente al revés”.

“Que no sean siempre ellos (la comunidad sorda) quienes tengan que hacer el esfuerzo por incluirse en un mundo de gente que puede oír”, concluyó Montaldo.

La aplicación, que llevó ocho meses de trabajo, está disponible para descargar en dispositivos que funcionan con el sistema operativo de Android.

Fuente: elcomercio.pe

Sale al mercado “Eyeclip”, un dispositivo ecuatoriano que ayuda a la movilidad de personas no videntes

Después de tres años de investigación y trabajo arduo, el emprendimiento ecuatoriano HandEyes lanzó al mercado “Eyeclip” el primero de varios dispositivos que llevan inventando y que ayudará a la movilidad de las personas con discapacidad visual.

“Eyeclip” actúa como una especie de radar a través de un sensor que registra la distancia y que emite un sonido y una vibración para que la persona que lo lleva puesto pueda esquivar posibles obstáculos que se encuentren en su trayecto y pueda caminar de forma segura.

El dispositivo complementa así el bastón que utilizan los no videntes, ya que detecta los objetos que se encuentra de la cintura para arriba mientras que el bastón detecta los objetos que están de la cintura para abajo. De esta manera las personas ya no chocarán con letreros, ramas u otros obstáculos que se encuentran en las aceras o calles de la ciudad.

Sus inventores son Fabricio Reyes, Diego Aguinsaca y Carlos Canacuán, todos recientemente graduados de la Universidad de las Fuerzas Armadas (ESPE) de las carreras de Ingeniería Electrónica, Ingeniería Mecatrónica e Ingeniería Mecánica respectivamente.

En una ceremonia realizada en la ESPE los jóvenes inventores entregaron los dispositivos a personas no videntes que les ayudaron a modificar algunas de sus funcionalidades y que los acompañaron en el proceso desde el principio.

Eyeclip es un dispositivo que se coloca sobre la ropa y permite a las personas no videntes identificar los obstáculos que están cerca al momento de caminar. Foto: Andes
Eyeclip es un dispositivo que se coloca sobre la ropa y permite a las personas no videntes identificar los obstáculos que están cerca al momento de caminar. Foto: Andes

 

Carlos Canacuán le dijo a Andes que se sentían completamente complacidos de que ha llegado el día de finalmente dejar de hacer prototipos y empezar a comercializar un producto final. “Lo que queremos reflejar con esto es que en Ecuador se puede crear tecnología, que acá hay talento necesario y suficiente para crear este tipo de cosas. Y ayudar a las personas no videntes que siempre será nuestra misión, juntar todo nuestro talento para que ellos puedan mejorar su calidad de vida”, señaló.

Su mensaje para para todos los emprendedores ecuatorianos es que confíen en lo que están haciendo porque solo con sus ideas se va a poder cambiar el país. “Los obstáculos se van superando, nosotros al inicio no sabíamos ni cómo hacer un logo y ahora nos ha tomado tiempo, pero es cuestión de dedicarse. Todo lo que hagan debe estar orientado a ayudar a un grupo vulnerable o que satisfaga una necesidad”, aseguró.

El diseño es más ergonómico de los primeros prototipos. Foto: Andes
El diseño es más ergonómico de los primeros prototipos. Foto: Andes

Después de generar varios prototipos, en los que se iba avanzando tanto la parte de funcionamiento como la parte física, el “Eyeclip” detecta el 95% de los obstáculos que se encuentran desde 15 centímetros hasta 1,5 metros de la persona que lo está utilizando. Tiene una batería de uso continuo que puede durar hasta 8 horas y que se la puede recargar completamente en dos horas a través de un cable USB.

Su diseño completamente ergonómico, que pesa apenas 40 gramos y tiene un tamaño menor a 5 centímetros, permite que las personas se lo coloquen sobre cualquier tipo de prenda de vestir de manera discreta. También se puede regular el volumen para las personas no videntes que no quieren llamar la atención.

Todo el prototito se lo diseña en el país, pero las piezas y componentes son fabricados en China para luego ser ensamblados aquí mismo por el equipo de HandEyes.

Tenían preventas de 100 dispositivos los mismos que ya han sido fabricados y que se entregarán hasta finales de este mes. Los inventores estiman terminar el año con 1.500 unidades vendidas. El costo del “Eyeclip” es de 150 dólares para las preventas, después de ello tendrá un costo de 200 dólares.

Las Fundaciones, Instituciones o personas que quieran adquirir el dispositivo pueden hacerlo a través de la página web www.hadeyes.org o a través de la red Social Facebook como HandEyes.

Experiencias de quienes han probado el dispositivo

Andrea Sarauz y su hija Anahí fueron parte de las personas que participaron en las pruebas del prototipo de de HanEyes. La pequeña de 7 años sufre de Retinoblastoma (cáncer de retina) lo que la dejó con discapacidad visual desde que tenía 5 meses. Ellas dicen que gracias al dispositivo la niña ha logrado moverse con mayor facilidad y ha perdido el miedo.

“La funcionalidad  es maravillosa, Anahí se desenvuelve súper bien siempre suena cuando ella se está acercando a algún obstáculo y puede detenerse por lo que le ayuda mucho con el bastón”, dijo su madre.  “Me ayuda a caminar mejor, me alerta con un sonido y si no es con un sonido vibra”, indicó por su parte la pequeña.

Sarauz piensa que es sumamente importante que en el país se desarrollen este tipo de dispositivos para las personas no videntes, ya que para ellas no existen muchos aparatos por lo que es una necesidad. “Quisiéramos  que los chicos sigan haciendo investigaciones así y salgan adelante”, señaló.

El periodista Wilson Reinoso también siguió al proyecto de HandEyes desde que presentó en el Banco de Ideas y señaló que es un dispositivo que les permitirá a las personas con discapacidad visual ser independientes

“Con este producto seremos independientes, con este producto cambiamos nuestra historia y nos mostramos con una autonomía para poder caminar y sin ayuda de otra persona. Gracias a ustedes muchachos porque con este producto tan novedoso, que yo  lo he probado desde el prototipo, puedo decirles que mi vida ha cambiado y me siento orgulloso de que en nuestro país tengamos produ

¿Cómo nació HandEyes?

HandEyes es un emprendimiento ecuatoriano que arrancó hace tres años en el Banco de Ideas, una plataforma inventada por la Secretaría Nacional de Educación Superior, Ciencia, Tecnología e Innovación (Senescyt) que intenta promover los emprendimientos ecuatorianos que apuntan al cambio de la matriz productiva del país.

Desde allí la empresa ha tenido una evolución constante, que incluso los llevó a participar y ganar el concurso “Una idea para cambiar la historia” organizado por el canal internacional History Channel  en diciembre de 2016.

Para la edición de este año de “Una idea para cambiar la historia” Diego Aguinsaca será uno de los jueces, quien seleccionará entre más de 5.000 proyectos de todo el mundo al que intente crear un mejor futuro para la humanidad.

Fuente: andes.info.ec

«Lazzus»: el lazarillo de los invidentes

La app genera un campo auditivo para funcionar como un sistema de navegación para ciegos

La app genera un campo auditivo para funcionar como un sistema de navegación para ciegos

Unos emprendedores asturianos han lanzado «Lazzus», una aplicación diseñada para mejorar la autonomía de los ciegos y los discapacitados visuales, con el objetivo de aumentar la seguridad del usuario a la vez que aportarle información útil y de interés en sus desplazamientos, según han informado los impulsores de esta iniciativa.

La aplicación, disponible para iOS y Android, es un asistente que acompaña a estas personas en sus desplazamientos creando un campo de visión auditivo y proporcionándoles información relevante del entorno, por ejemplo, si hay un paso de peatones, un cruce de calles o establecimientos concretos.

«Nos sorprendió una persona ciega buscando un GPS en una tienda de electrónica, confiando en que podría ayudarle en sus desplazamientos, pero ningún GPS es accesible. Nos dimos cuenta de que, a pesar de la tecnología que llevamos en la mano gracias a los smartphones, no existía ningún asistente personal que pudiera ayudar a los discapacitados visuales», ha explicado el CEO y socio de Lazzus, Francisco Pérez.

Por ello, según ha señalado Pérez, quisieron ir «un paso más» y crear una app que «realmente aportase un valor añadido», ofreciendo «toda la información» que el usuario no puede ver.

«Lazzus» combina dos fuentes de datos complementarias: Google PlacesOpen Street Maps, que juntas proporcionan información «precisa» que permite descubrir multitud de puntos de interés. Además, ofrece que cada usuario pueda añadir sus propios puntos de interés, permite realizar búsquedas en un radio de 100 metros y facilita la exploración del terreno, filtrando “sólo información relevante” que está cerca del usuario.

«Hemos intentado mostrar el entorno a través de distintas formas, para que el usuario elija dependiendo de sus necesidades en cada momento», ha subrayado el emprendedor, que también ha destacado que la app incluye el «Modo Linterna», que indica lo que hay en la dirección que señalas con el móvil; el «Modo 360º», que reconoce lo que está en un radio cerca de ti en todas las direcciones; y el «Modo Transporte», que se activa automáticamente cuando vas en un autobús o coche, indicando el lugar en el que se encuentra el usuario para evitar que se desoriente.

La aplicación, que ofrece una prueba gratuita de dos kilómetros, ha sido testada y avalada por el centro de la ONCE referente en España en accesibilidad y productos de apoyo para personas ciegas (CIDAT), y ha recibido el premio de Google a la startup más innovadora y disruptiva, así como el premio Fundación Vodafone a la innovación en comunicaciones.

Fuente: abc.es

Elaborarán propuesta para mejorar educación de personas con discapacidad

Ministerio de Educación instala comisión que presentará un proyecto de nueva política en los próximos 90 días

En un plazo de 90 días una comisión sectorial del Ministerio de Educación elaborará una propuesta de una nueva política, con el objetivo de mejorar la atención de estudiantes con discapacidad. (Foto: Ministerio de Educación)

 

En un plazo de 90 días una comisión sectorial del Ministerio de Educación elaborará una propuesta de una nueva política, con el objetivo de mejorar la atención de estudiantes con discapacidad intelectual, física y sensorial, trastornos de neurodesarrollo, talento y superdotación, situación de hospitalización u otras necesidades específicas.

La comisión que fue instalada el lunes, está presidida por la viceministra de Gestión Pedagógica del Minedu, Liliana Mirandaquien resaltó que una vez aprobada la política será aplicada en el marco del enfoque inclusivo en la educación básica, técnico productiva y superior.

“De esta manera, se busca garantizar que todos los estudiantes reciban una educación de calidad, pertinente, con equidad y en igualdad de oportunidades, eliminando las barreras que impiden acceder y participar del sistema educativo”, sostuvo Liliana Miranda.

La comisión sectorial está integrada por los titulares de las direcciones generales de Educación Básica Regular; Servicios Educativos Especializados; de Educación Básica Alternativa, Intercultural Bilingüe y de Servicios Educativos en el Ámbito Rural; de Desarrollo Docente; Educación Superior Universitaria; Educación Primaria; Educación Básica Especial, entre otros.

Entre las organizaciones que brindarán asesoría, colaboración y opinión especializada están: el Consejo Nacional de Educación (CNE), el Grupo de Análisis para el Desarrollo (GRADE), el Consejo Nacional para la Integración de la Persona con Discapacidad (Conadis), la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) y la Coalición por el Derecho a una Educación Inclusiva.

Fuente: elcomercio.pe

Se lanza un producto de accesibilidad para personas con discapacidad

Sirve para el uso de videoporteros por personas con discapacidad visual o auditiva, que pueden instalarse en edificios, estacionamientos, hospitales y escuelas.

Se creó un nuevo producto llamado A8004-VE, que permite a personas con discapacidades auditivas o visuales la comunicación a través de videoportero para el control de entradas y salidas en edificios, estacionamientos, además de áreas de acceso restringido en hospitales y escuelas.

A8004-VE

La empresa desarrolladora se llama Axis Communications, y la placa frontal que se conecta directamente al videoportero IP de la empresa, cuenta con pictogramas luminosos que muestran la liberación del acceso y función activada, lo que indica, por ejemplo, que la imagen del usuario está siendo vista en vivo por el equipo de monitoreo.

Para usuarios con dificultades visuales, un loop de avisos sonoros alerta sobre la presencia del videoportero, y una marcación en braille indica el botón de llamada de voz con la central. De esta manera, la interacción con la tecnología es mucho más simple y hace innecesaria la presencia de terceros.

“El producto permite a los edificios cumplir con regulaciones sobre accesibilidad libre de barreras”, explica Andrei Junqueira, gerente de Ventas de Axis para América del Sur.

En diciembre de 2016, Axis recibió el premio Sustainability Leadership Award, que reconoce a personas, equipos y organizaciones que han hecho de la sostenibilidad una parte integral de sus prácticas.

Fuente: connuestroperu.com

Samsung lanza una app para ayudar a personas con baja visión

relumino App

Samsung Electronics anunció que lanzará ‘Relúmino,’ una aplicación de asistencia visual para las personas con baja visión.

‘Relúmino’ es una aplicación de asistencia visual que funciona en conjunto con el Gear VR para aumentar la visión de las personas con deficiencia visual. Los usuarios con los modelos más recientes de los teléfonos inteligentes Galaxy, incluyendo los Galaxy S7, S7 Edge, S8 y S8+ conseguirán descargar ‘Relúmino’ de forma gratuita en Oculus Store con soporte tanto para inglés como para coreano. ‘Relúmino’ no proporciona soporte para los que son totalmente ciegos.

“Relúmino cambiará la vida para los 240 millones de personas con deficiencia visual alrededor del mundo y prometemos un apoyo sólido y continuo”, dijo Jaiil Lee, vicepresidente y responsable del Centro de Creatividad e Innovación en Samsung Electronics.

La aplicación de asistencia visual procesa las imágenes a partir de los vídeos proyectados por la cámara trasera de un teléfono inteligente y hace que las imágenes sean apropiadas para las personas con deficiencia visual. Más específicamente, sus principales características incluyen aumentar y minimizar la imagen; resaltar el contorno de la imagen; ajustar el contraste de los colores y el brillo; revertir el color; y filtrar los colores de la pantalla. El efecto final es que ‘Relúmino’ permite que las personas con deficiencia visual vean las imágenes más claras cuando están leyendo un libro o mirando a un objeto, por ejemplo.

Para aquellos que padecen de un punto ciego en la visión o la Visión en Túnel, que es la pérdida de la visión periférica con la retención de la visión central, ‘Relúmino’ ayuda remapeando las imágenes desapercibidas para colocarlas en las partes visibles del ojo. Específicamente, cuando los usuarios establecen los tamaños de un punto ciego o visión en túnel para el uso por primera vez, la aplicación automáticamente coloca el punto ciego en las partes circundantes visibles y coloca las imágenes dentro del ‘túnel’ o el rango visible, ayudando los usuarios que tienen un defecto del campo visual para que vean las cosas mejor. A diferencia de las otras asistencias visuales con calidad semejante que frecuentemente cuestan miles de dólares, los usuarios de ‘Relúmino’ pueden desfrutar de las características equivalentes por un precio mucho más asequible.

A principios de este año en Barcelona, Relúmino atrajo mucha atención en el congreso Mundial de la Telefonía Móvil, el mayor encuentro del mundo para la industria de la telefonía móvil. El programa incubador interno de Samsung, el C-Lab, recibió opiniones positivas por presentar una tecnología desarrollada para ayudar las personas con deficiencia física en lugar de perseguir las ganancias con los dispositivos convencionales de la VR (realidad virtual).

Elegido como un proyecto de C-Lab el pasado mes de mayo, se proyectó inicialmente Relúmino para ayudar para que las personas con deficiencia visual desfruten de las actividades cotidianas tales como ver la TV y leer libros como las personas sin discapacidad física. Los miembros del proyecto dieron el nombre ‘Relúmino’ a su aplicación lo que significa ‘Re-iluminar’ en latín, ya que querían ayudar que las personas con deficiencia visual sientan la alegría de las actividades cotidianas que la mayoría de las personas habitualmente dé por hecho.

Mientras se concluye dentro del año la mayoría de los proyectos de C-Lab, Relúmino continuará a efectuar las tareas de seguimiento. Piensa en desarrollar productos tipo gafas para que las personas con deficiencia visual puedan usar las asistencias visuales en su vida cotidiana sin llamar las atenciones de los demás. Sumando a esto, el equipo tratará de forma continua las inconveniencias que surjan de la aplicación recientemente liberada obteniendo las opiniones de los usuarios.

Lanzado en diciembre de 2012, el C-Lab es un programa de negocio para empresas emergentes (startup) que fomenta una cultura corporativa creativa e ideas innovadoras entre los empleados de Samsung. El programa da apoyo a los proyectos que contribuyen a la sociedad como ‘Relúmino’ además de los proyectos de TI relacionados con la Internet de las Cosas (IoT), los dispositivos ponibles (wearables) y la realidad virtual.

Para más información sobre ‘Relúmino’, por favor visite al sitio https://www.samsungrelumino.com

Fuente: runrun.es

Parapléjico vuelve a tocar la batería, ayudado por las Nuevas Tecnologías

TecnologíaParapléjico vuelve a tocar la batería, ayudado por las Nuevas Tecnologías Andrea Cummins

En 1986,  Alan Cornett quedó parapléjico. Sufrió un grave accidente con su automóvil que lo dejó sin movilidad en sus piernas. Él era baterista y sus sueños habían quedado truncos al recibir una lesión en su médula espinal. Los doctores le había dicho que nunca mas iba a poder volver a tocar la batería. Hasta que decidió utilizar un micrófono en su boca,  mediante su voz y una computadora, replicar el sonido del bombo.

 

El aprendió a utilizar su lengua, para disparar secuencias de una batería electrónica. Con este convertidor trigger-to-midi, transforma la señal creada por los triggers a una señal Midi. Combinando una batería normal, con una electrónica manejada con la boca.

Las nuevas tecnologías deben estar al servicio de personas con capacidades diferentes. Y aprovecharlas, tanto para poder volver a realizar actividades o hobbies y para integrarse a la sociedad.

Según  la Fundación Adecco , el 60 % de loas personas con discapacidad utilizan aplicaciones que facilitan las tareas de la vida cotidiana.

  • Las personas con discapacidad visual son las que más las emplean (77%), seguidas de las que tienen discapacidad auditiva (73%), física (65%) e intelectual (50%).

  • Estas aplicaciones les permiten desde comunicarse en igualdad de condiciones hasta denunciar una violación de un derecho o localizar un aparcamiento accesible.

  • Algunas de las Apps más usadas son Siri, Google Talk Back, VoiceOver (discapacidad visual), SVisual (discapacidad auditiva) o Disabled Park (discapacidad física).

  • Un 84% de las personas con discapacidad afirma que las Nuevas Tecnologías han mejorado su calidad de vida global.

  • Las personas con discapacidad siguen participando de forma exigua en el mercado laboral y las NT pueden ayudar a incrementar su actividad: a través de adaptaciones tecnológicas que les permitan desempeñar puestos de los que antes estaban excluidos, a través de fórmulas como el teletrabajo, etc.

  • De hecho, el 50% de los encuestados con empleo declara que puede desempeñar su puesto gracias a la contribución de las NT.

  • Sin embargo, un 63% sigue encontrando barreras para acceder a las Nuevas Tecnologías, la mayoría de índole económico.

  • Asimismo, la mayoría de los encuestados (80%) cree que el desarrollo de las Nuevas Tecnologías no ha ido acompañado de otras medidas de Accesibilidad, lo que ocasiona situaciones de dependencia injustificadas

Fuente: geeksroom.com