Realidad virtual al servicio de las personas con discapacidad

Les permitirá vivir algunas experiencias que no pueden realizar.

Actividades como buceo, paracaidismo y maratones son parte de un proyecto que busca estimular el desarrollo cognitivo y emocional de las personas que sufren alguna discapacidad física.

La realidad virtual hace años se presenta como unas de las tecnologías más disruptivas del futuro. Mucho más cercana a la puerta de los hogares que la propia ciencia ficción, será un nuevo punto de partida en la forma en la que el mundo consuma la información. Su principal virtud radica en la sensación de estar inmersos en un contexto que aparenta ser real, donde el contenido cobra forma de experiencia vivencial que estimula los sentidos y despierta sentimientos y emociones. Una nueva propuesta invita a que esta tecnología sea la ayuda anímica para personas con discapacidad.

Dicha tecnología realmente puede hacer grandes aportes a las personas con discapacidad o con dependencia, debido a su capacidad de incrementar habilidades cognitivas, y formar de una manera mucho más motivadora que con la educación tradicional. Así lo demuestran diversas experiencias que combinan la diversión y el aprendizaje. Juan Antonio Fuentes, un joven arquitecto de Málaga, lleva varios años de estudio en relación a las posibilidades que ofrece la realidad virtual e ideó el bosquejo de una plataforma denominada Feel.

“Esta tecnología podría servir para que aquellas personas con discapacidad disfrutaran de vivencias de un modo virtual que, por sus limitaciones físicas, no pueden llevar a cabo. Por ello he ideado Feel”, aseguró Fuentes. Estas máscaras permitirían a aquellas personas con movilidad reducida poder experimentar ciertas actividades de disfrute que su condición no les permiten hacer periódicamente. Buceo, paracaidismo o maratones son algunos de los diseños exclusivos que ofrece esta tecnología, la cual mediante máscaras especializadas ofrece la sensación de hacer la actividad seleccionada.

La empresa aseguró que existe la posibilidad de realizar diseños exclusivos según las necesidades de quien solicite el servicio. “Estoy en proceso de desarrollo de una plataforma web en la que los usuarios puedan descargarse este tipo de contenidos y disfrutarlos en su casa con unas gafas adaptadas. Por ejemplo, experiencias de buceo o de paracaidismo. El objetivo es que una lesión, por muy grave que sea, no impida a alguien experimentar este tipo de entretenimiento, aunque sea de un modo virtual”, agregó. Aún no existe una fecha de lanzamiento, ya que Fuentes busca financiación. “Dispongo de los medios y el conocimiento para desarrollar Feel. Sólo necesito una inyección económica”, concluyó.

Se trata de la aplicación de una de las tecnologías más utilizadas en el último siglo que podrá hacer su aporte emocional, físico y espiritual a quienes sufren alguna patología discapacitante.

Fuente: lmneuquen.com

La app que permite a las personas sordas comunicarse, creada por un emprendedor argentino de 18 años

Mateo Salvatto sacó en enero la aplicación “Hablalo” que integra dos servicios: traducción de texto a voz y de voz a texto; ya tiene más de 10 mil descargas y funciona en 10 países.

El emprendedor Matteo Salvatto terminó el secundario con orientación en electrónica y, en lugar de seguir haciendo robots y cohetes, quiso crear algo que contribuyera a la comunidad. Al ser su mamá intérprete en lengua de señas y docente para sordos, pensó en aplicar la tecnología para ayudar a estas personas y creó “Hablalo”, una app que asiste a gente con problemas para comunicarse verbalmente y con dificultades en la audición.

Lanzada en enero, la aplicación ya tiene 10 mil descargas y funciona en 10 países de habla hispana. Sin embargo, Salvatto, de 18 años, no se detiene y está trabajando para agregarle funcionalidades y mejorarla lo más posible para, una vez que eso esté desarrollado, lanzarse a otros proyectos relacionados con discapacidad.

“Yo soy técnico electrónico así que estudié electrónica, programación, desarrollo de plaquetas nada que ver con algo social pero cuando terminé la secundaria quería hacer algo para ayudar a la comunidad que tengo tan cerca. Como mi mamá es profesora de sordos, en todas las cenas familiares escuché hablar sobre sordos. Y un día dije ‘tenemos que aplicar la tecnología para ayudar a estas personas’”, afirmó en una entrevista con José del Río en el programa “Comunidad de Negocios”.

La aplicación integra dos servicios principales: uno de traducción de texto a voz, por el cual la persona sorda escribe lo que quiere decir. Por ejemplo: “¿Dónde hay una farmacia?”. Eso, al presionar un botón, se reproduce en voz alta. Luego, cuando le responden, por ejemplo, “Está a dos cuadras”, presiona un botón que activa un servicio de traducción de voz a texto y esa respuesta aparece como una oración en la parte baja de la pantalla del celular, incluso sin conexión a internet.

“Cualquiera que conozca de tecnología sabe que no es un desarrollo revolucionario. Es agarrar tecnología que ya existía para ponerla en un entorno que ayude a los sordos. Por ahí no nos ponemos a pensar pero no solamente no pueden comunicarse con los oyentes sino que, si están manejando, no escuchan una ambulancia, o cuando suena un timbre, o si hay un bebé llorando. Si tienen que ir a la AFIP tienen que ir con un intérprete y, si el interprete no puede ir, bueno la aplicación surge para dar una herramienta si pasa algo así”, explicó.

La app es gratuita y no hay ninguna parecida en el mundo. En un mes, Salvatto lanzará una nueva versión para iPhone con un modelo freemium por el cual se podrá pagar por una mejora sin publicidad. Pero eso no es todo sino que está pensando en más funcionalidades.”Estoy trabajando en el Ministerio de Ciencia, Tecnología e Innovación de la provincia de Buenos Aires para acerca a la robótica como un deporte o competencia a colegios de la provincia. Pero mi proyecto es mejorar Hablalo para que detecte un timbre que suena o un bebé llorando y le pueda avisar a la persona. Quiero tratar de mejorarla lo más posible y, una vez que esté eso desarrollado, me lanzaré a otros proyectos relacionados con discapacidad”, confió.

Por último, consultado por la opinión de su mamá, dijo que “está muy contenta porque es cierto que las personas sordas no tienen asistencia tecnológica”. “En enero se publicó y ya tiene 10 mil descargas por la demanda de la comunidad. Ellos mismos me sugirieron mejoras”, concluyó.

Fuente: elliberal.com.ar

Descarga la App

App enseña lengua de señas para acortar brecha entre sordo y oyente

La aplicación Ceibal-LSU, que enseña lenguaje de señas a los usuarios, busca acortar la brecha que existe entre la comunidad sorda y la oyente. (Foto: Getty Images)

La aplicación Ceibal-LSU, que enseña lenguaje de señas a los usuarios, busca acortar la brecha que existe entre la comunidad sorda y la oyente, al tender un “puente al revés” para evitar que quienes tienen discapacidad auditiva tengan que ser siempre quienes se esfuerzan por incluirse en un mundo que oye.

Así lo explicó a Efe Mariana Montaldo, jefa de Contenidos del Plan Ceibal, organización que financió el desarrollo de esta aplicación, que fue presentada este viernes en Montevideo.

“Fuimos conociendo las necesidades y vimos la brecha que había entre la comunidad sorda y la oyente. Frente a eso, pensamos que sería bueno crear una aplicación que enseñe a quienes pueden oír el lenguaje de señas”, agregó Montaldo.

La aplicación, llamada Ceibal-LSU (Lengua de Señas Uruguaya), tiene un funcionamiento similar a Duolingo, una plataforma para dispositivos electrónicos que enseña idiomas y cuya dificultad va en aumento en proporción a la evolución del usuario.

Según detalló Montaldo, lo primero que el usuario debe hacer es crear un avatar y seleccionar un área temática en la que indagar, como ser comidas, lugares, animales o colores, entre otras.

En cada una de ellas, la aplicación le mostrará al usuario una serie de vídeos que demuestran cómo se traducen las palabras al lenguaje de señas.

Una vez que el usuario termina el vídeo, la aplicación propondrá una serie de pruebas para confirmar que se comprendió la traducción de las palabras de forma correcta.

Los vídeos demostrativos fueron grabados por 10 alumnos de la Escuela 197, la única institución educativa exclusivamente para sordos que existe en Montevideo.

Aunque la aplicación está dirigida a los niños, y así fue pensada su estética, Montaldo no descartó que pueda ser utilizada también por docentes o adultos que quieran formarse en el lenguaje de señas.

“Una de las cosas que plantea es reflexionar sobre el lugar en el que se pone a la comunidad sorda. No es adaptar algo para que el sordo esté incluido, sino que la propuesta es que ellos nos enseñen a nosotros”, expresó Montaldo.

Respecto a esto último, consideró que es como “tender un puente al revés”.

“Que no sean siempre ellos (la comunidad sorda) quienes tengan que hacer el esfuerzo por incluirse en un mundo de gente que puede oír”, concluyó Montaldo.

La aplicación, que llevó ocho meses de trabajo, está disponible para descargar en dispositivos que funcionan con el sistema operativo de Android.

EFE

Fuente:  peru.com

Eyesynth: un sistema de navegación, reconocimiento y comprensión del entorno para ciegos

Un nuevo aparato permite a los ciegos obtener información espacial en un audio muy fácil de comprender.

Por Alberto Iglesias Fraga

Una startup española busca facilitar la movilidad de las personas con discapacidad visual. Foto: TICBeat

Las personas con discapacidad visual o ceguera lo tienen, a veces, muy complicado para superar los obstáculos artificiales que hemos ido creando en nuestras ciudades. Barreras y bolardos, objetos inesperados en la calle, diferencias de altura… la lista de problemas parece casi infinita para este colectivo que, hasta ahora, tenía a su propio instinto, el bastón o la ayuda de perros guía o voluntarios su única forma de moverse sin sufrir un accidente.

El sector tecnológico no ha sido ajeno a las necesidades de este grupo de población, proponiendo un sinfín de soluciones más o menos innovadoras con qué facilitar la movilidad de las personas con discapacidad visual. Entre ellas, destaca Eyesynth, un sistema de navegación, reconocimiento y comprensión del entorno en tiempo real no invasivo y muy sencillo de utilizar.

TICbeat tuvo la oportunidad de conocer este interesante proyecto de la mano de Antonio Quesada, CEO de Eyesynth. He aquí la entrevista completa:

¿Cómo surgió la idea de poner en marcha Eyesynth?
La idea surgió un poco como consecuencia frente a la falta de respuestas tecnológicas a una comunidad tan grande de gente. Desde el perro guía y el bastón, no hay un estándar de movilidad tecnológico y en Eyesynth nos hemos propuesto cambiar eso. Nosotros no pretendemos hacer sustituciones, sino complementar las opciones existentes con una herramienta actualizada y que permita ampliar muchísimo la movilidad y la independencia de la persona que lo use.

¿Cómo funcionan vuestras gafas y el software que las acompaña? ¿En qué principios científicos y tecnológicos se sostiene?
Nuestra tecnología hace un análisis tridimensional del entorno y convierte esa información espacial en un audio muy fácil de comprender, un siseo parecido al rumor del mar. Lo cierto es que nos apoyamos mucho en la ciencia y en el principio de la sinestesia en el que el cerebro tiene la habilidad de poder reinterpretar la información que le da un sentido mediante otro. También nuestros planteamientos están relacionados con la plasticidad del cerebro: es capaz de crear nuevas conexiones neuronales entre las zonas auditiva y visual para mejorar la comunicación entre ellas. El cerebro es capaz de “recablearse”

¿En qué casos concretos puede la tecnología de Eyesynth ayudar a las personas con discapacidades visuales?
Claro, hay varios casos en los que las gafas se muestran muy útiles, por ejemplo, en la detección de obstáculos aéreos, como pueden ser toldos, semáforos o extintores de pared. También es importante la amplitud de la imagen que se analiza, hasta 6 metros de distancia. Un factor crítico es cada cuánto tiempo se actualiza la información al usuario. En nuestro caso, 60 veces por segundo, lo que nos da mucho margen de movilidad al estar advertidos lo suficientemente pronto de los objetos que tenemos delante.

¿Cuáles son las principales barreras que os encontrasteis a la hora de desarrollar vuestra idea?
Primero la gran cantidad de cálculo que tenía que hacer el sistema, con lo cual a nivel de electrónica es todo muy complejo, y luego existe una barrera más de tipo social. Ha habido muchas propuestas tecnológicas que no han estado suficientemente bien diseñadas y que han hecho crecer un escepticismo hacia la posible potencia y utilidad de tecnologías como la nuestra.

¿Está ya en fase de comercialización vuestra tecnología?
Estamos ya en la última fase de producción, vamos a entrar en proceso de fabricación masiva en breve para poder salir al mercado a principios del año que viene. Además, estamos muy contentos de poder contar con un amplio grupo de usuarios y testers que están dándonos su feedback para mejorar el producto en esta última etapa.

¿Cuáles son vuestras previsiones de alcance en el mercado?
La verdad es que es difícil hacer un análisis a priori cuando estamos rompiendo hielo, pero dado que tenemos un precio lo más ajustado y competitivo posible, y una necesidad real de mercado, las expectativas son buenas.

¿El desarrollo de la tecnología ha sido propio o habéis contado con terceros? ¿Ha sido 100% creada en España?
Exacto, ha sido un desarrollo interno propio. 100% creado en España.

¿Cuál ha sido la colaboración de instituciones y organismos públicos a la hora de desarrollar la empresa, más allá del programa Horizonte 2020 del que formáis parte?
A nivel Institucional estamos en contacto con varios actores principales en materia de movilidad y discapacidad en España. Como iniciativas e instituciones privadas, estamos siendo muy apoyados por los medios de comunicación en la divulgación del proyecto, además hemos recibido varios premios en los últimos meses en materia de innovación y emprendimiento que nos están dando visibilidad y un gran apoyo.

“Desde el perro guía y el bastón, no hay un estándar de movilidad tecnológico para ciegos”, asegura Antonio Quesada. Foto: TicBea
“Desde el perro guía y el bastón, no hay un estándar de movilidad tecnológico para ciegos”, asegura Antonio Quesada. Foto: TicBeat

Financiación: ¿habéis emprendido ya rondas de financiación?
Estamos estudiando diversas posibilidades, nuestro objetivo es expandirnos y que el proyecto tome un camino global, y para ello estamos abiertos a varias posibilidades entre las que se incluyen el abrir ronda de financiación.

¿Cuántas personas estáis involucradas actualmente en el proyecto?
Actualmente el núcleo del proyecto lo forman 15 personas, pero el proyecto va mucho más allá del equipo de desarrollo en sí. Con los probadores, consejeros y personas involucradas en él de una manera u otra, superamos la treintena.

Próximos retos del proyecto, algún hito próximo que podamos adelantar a los lectores
Nuestros hitos más cercanos son llegar al mercado y empezar una distribución europea, pero si es verdad que estamos trabajando en varios focos. Por ahora os podemos decir que en nuestra hoja de ruta tenemos un montón de novedades emocionantes que llegarán a las gafas en forma de actualización de software.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE TICBeat. VER ORIGINAL AQUÍ. PROHIBIDA SU REPRODUCCIÓN.

Fuente: sinembargo.mx

App uruguaya enseña lengua de señas para acortar brecha entre sordo y oyente

La aplicación está dirigida a los niños, pero también puede ser usada por docentes o adultos que quieran aprender el lenguaje de señas

La aplicación tiene un funcionamiento similar a Duolingo. (Foto: Ceibal-LSU)
La aplicación tiene un funcionamiento similar a Duolingo. (Foto: Ceibal-LSU)

La aplicación Ceibal-LSU, que enseña lenguaje de señas a los usuarios, busca acortar la brecha que existe entre la comunidad sorda y la oyente, al tender un “puente al revés” para evitar que quienes tienen discapacidad auditiva tengan que ser siempre quienes se esfuerzan por incluirse en un mundo que oye.

Así lo explicó a Efe Mariana Montaldo, jefa de Contenidos del Plan Ceibal, organización que financió el desarrollo de esta aplicación, que fue presentada este viernes en Montevideo.

“Fuimos conociendo las necesidades y vimos la brecha que había entre la comunidad sorda y la oyente. Frente a eso, pensamos que sería bueno crear una aplicación que enseñe a quienes pueden ‘oír’ el lenguaje de señas”, agregó Montaldo.

La aplicación, llamada Ceibal-LSU (Lengua de Señas Uruguaya), tiene un funcionamiento similar a Duolingo, una plataforma para dispositivos electrónicos que enseña idiomas y cuya dificultad va en aumento en proporción a la evolución del usuario.

Según detalló Montaldo, lo primero que el usuario debe hacer es crear un avatar y seleccionar un área temática en la que indagar, como ser comidas, lugares, animales o colores, entre otras.

En cada una de ellas, la aplicación le mostrará al usuario una serie de vídeos que demuestran cómo se traducen las palabras al lenguaje de señas.

Una vez que el usuario termina el vídeo, la aplicación propondrá una serie de pruebas para confirmar que se comprendió la traducción de las palabras de forma correcta.

Los vídeos demostrativos fueron grabados por 10 alumnos de la Escuela 197, la única institución educativa exclusivamente para sordos que existe en Montevideo.

Aunque la aplicación está dirigida a los niños, y así fue pensada su estética, Montaldo no descartó que pueda ser utilizada también por docentes o adultos que quieran formarse en el lenguaje de señas.

“Una de las cosas que plantea es reflexionar sobre el lugar en el que se pone a la comunidad sorda. No es adaptar algo para que el sordo esté incluido, sino que la propuesta es que ellos nos enseñen a nosotros”, expresó Montaldo.

Respecto a esto último, consideró que es como “tender un puente al revés”.

“Que no sean siempre ellos (la comunidad sorda) quienes tengan que hacer el esfuerzo por incluirse en un mundo de gente que puede oír”, concluyó Montaldo.

La aplicación, que llevó ocho meses de trabajo, está disponible para descargar en dispositivos que funcionan con el sistema operativo de Android.

Fuente: elcomercio.pe

«Lazzus»: el lazarillo de los invidentes

La app genera un campo auditivo para funcionar como un sistema de navegación para ciegos

La app genera un campo auditivo para funcionar como un sistema de navegación para ciegos

Unos emprendedores asturianos han lanzado «Lazzus», una aplicación diseñada para mejorar la autonomía de los ciegos y los discapacitados visuales, con el objetivo de aumentar la seguridad del usuario a la vez que aportarle información útil y de interés en sus desplazamientos, según han informado los impulsores de esta iniciativa.

La aplicación, disponible para iOS y Android, es un asistente que acompaña a estas personas en sus desplazamientos creando un campo de visión auditivo y proporcionándoles información relevante del entorno, por ejemplo, si hay un paso de peatones, un cruce de calles o establecimientos concretos.

«Nos sorprendió una persona ciega buscando un GPS en una tienda de electrónica, confiando en que podría ayudarle en sus desplazamientos, pero ningún GPS es accesible. Nos dimos cuenta de que, a pesar de la tecnología que llevamos en la mano gracias a los smartphones, no existía ningún asistente personal que pudiera ayudar a los discapacitados visuales», ha explicado el CEO y socio de Lazzus, Francisco Pérez.

Por ello, según ha señalado Pérez, quisieron ir «un paso más» y crear una app que «realmente aportase un valor añadido», ofreciendo «toda la información» que el usuario no puede ver.

«Lazzus» combina dos fuentes de datos complementarias: Google PlacesOpen Street Maps, que juntas proporcionan información «precisa» que permite descubrir multitud de puntos de interés. Además, ofrece que cada usuario pueda añadir sus propios puntos de interés, permite realizar búsquedas en un radio de 100 metros y facilita la exploración del terreno, filtrando “sólo información relevante” que está cerca del usuario.

«Hemos intentado mostrar el entorno a través de distintas formas, para que el usuario elija dependiendo de sus necesidades en cada momento», ha subrayado el emprendedor, que también ha destacado que la app incluye el «Modo Linterna», que indica lo que hay en la dirección que señalas con el móvil; el «Modo 360º», que reconoce lo que está en un radio cerca de ti en todas las direcciones; y el «Modo Transporte», que se activa automáticamente cuando vas en un autobús o coche, indicando el lugar en el que se encuentra el usuario para evitar que se desoriente.

La aplicación, que ofrece una prueba gratuita de dos kilómetros, ha sido testada y avalada por el centro de la ONCE referente en España en accesibilidad y productos de apoyo para personas ciegas (CIDAT), y ha recibido el premio de Google a la startup más innovadora y disruptiva, así como el premio Fundación Vodafone a la innovación en comunicaciones.

Fuente: abc.es

Se lanza un producto de accesibilidad para personas con discapacidad

Sirve para el uso de videoporteros por personas con discapacidad visual o auditiva, que pueden instalarse en edificios, estacionamientos, hospitales y escuelas.

Se creó un nuevo producto llamado A8004-VE, que permite a personas con discapacidades auditivas o visuales la comunicación a través de videoportero para el control de entradas y salidas en edificios, estacionamientos, además de áreas de acceso restringido en hospitales y escuelas.

A8004-VE

La empresa desarrolladora se llama Axis Communications, y la placa frontal que se conecta directamente al videoportero IP de la empresa, cuenta con pictogramas luminosos que muestran la liberación del acceso y función activada, lo que indica, por ejemplo, que la imagen del usuario está siendo vista en vivo por el equipo de monitoreo.

Para usuarios con dificultades visuales, un loop de avisos sonoros alerta sobre la presencia del videoportero, y una marcación en braille indica el botón de llamada de voz con la central. De esta manera, la interacción con la tecnología es mucho más simple y hace innecesaria la presencia de terceros.

“El producto permite a los edificios cumplir con regulaciones sobre accesibilidad libre de barreras”, explica Andrei Junqueira, gerente de Ventas de Axis para América del Sur.

En diciembre de 2016, Axis recibió el premio Sustainability Leadership Award, que reconoce a personas, equipos y organizaciones que han hecho de la sostenibilidad una parte integral de sus prácticas.

Fuente: connuestroperu.com

Samsung lanza una app para ayudar a personas con baja visión

relumino App

Samsung Electronics anunció que lanzará ‘Relúmino,’ una aplicación de asistencia visual para las personas con baja visión.

‘Relúmino’ es una aplicación de asistencia visual que funciona en conjunto con el Gear VR para aumentar la visión de las personas con deficiencia visual. Los usuarios con los modelos más recientes de los teléfonos inteligentes Galaxy, incluyendo los Galaxy S7, S7 Edge, S8 y S8+ conseguirán descargar ‘Relúmino’ de forma gratuita en Oculus Store con soporte tanto para inglés como para coreano. ‘Relúmino’ no proporciona soporte para los que son totalmente ciegos.

“Relúmino cambiará la vida para los 240 millones de personas con deficiencia visual alrededor del mundo y prometemos un apoyo sólido y continuo”, dijo Jaiil Lee, vicepresidente y responsable del Centro de Creatividad e Innovación en Samsung Electronics.

La aplicación de asistencia visual procesa las imágenes a partir de los vídeos proyectados por la cámara trasera de un teléfono inteligente y hace que las imágenes sean apropiadas para las personas con deficiencia visual. Más específicamente, sus principales características incluyen aumentar y minimizar la imagen; resaltar el contorno de la imagen; ajustar el contraste de los colores y el brillo; revertir el color; y filtrar los colores de la pantalla. El efecto final es que ‘Relúmino’ permite que las personas con deficiencia visual vean las imágenes más claras cuando están leyendo un libro o mirando a un objeto, por ejemplo.

Para aquellos que padecen de un punto ciego en la visión o la Visión en Túnel, que es la pérdida de la visión periférica con la retención de la visión central, ‘Relúmino’ ayuda remapeando las imágenes desapercibidas para colocarlas en las partes visibles del ojo. Específicamente, cuando los usuarios establecen los tamaños de un punto ciego o visión en túnel para el uso por primera vez, la aplicación automáticamente coloca el punto ciego en las partes circundantes visibles y coloca las imágenes dentro del ‘túnel’ o el rango visible, ayudando los usuarios que tienen un defecto del campo visual para que vean las cosas mejor. A diferencia de las otras asistencias visuales con calidad semejante que frecuentemente cuestan miles de dólares, los usuarios de ‘Relúmino’ pueden desfrutar de las características equivalentes por un precio mucho más asequible.

A principios de este año en Barcelona, Relúmino atrajo mucha atención en el congreso Mundial de la Telefonía Móvil, el mayor encuentro del mundo para la industria de la telefonía móvil. El programa incubador interno de Samsung, el C-Lab, recibió opiniones positivas por presentar una tecnología desarrollada para ayudar las personas con deficiencia física en lugar de perseguir las ganancias con los dispositivos convencionales de la VR (realidad virtual).

Elegido como un proyecto de C-Lab el pasado mes de mayo, se proyectó inicialmente Relúmino para ayudar para que las personas con deficiencia visual desfruten de las actividades cotidianas tales como ver la TV y leer libros como las personas sin discapacidad física. Los miembros del proyecto dieron el nombre ‘Relúmino’ a su aplicación lo que significa ‘Re-iluminar’ en latín, ya que querían ayudar que las personas con deficiencia visual sientan la alegría de las actividades cotidianas que la mayoría de las personas habitualmente dé por hecho.

Mientras se concluye dentro del año la mayoría de los proyectos de C-Lab, Relúmino continuará a efectuar las tareas de seguimiento. Piensa en desarrollar productos tipo gafas para que las personas con deficiencia visual puedan usar las asistencias visuales en su vida cotidiana sin llamar las atenciones de los demás. Sumando a esto, el equipo tratará de forma continua las inconveniencias que surjan de la aplicación recientemente liberada obteniendo las opiniones de los usuarios.

Lanzado en diciembre de 2012, el C-Lab es un programa de negocio para empresas emergentes (startup) que fomenta una cultura corporativa creativa e ideas innovadoras entre los empleados de Samsung. El programa da apoyo a los proyectos que contribuyen a la sociedad como ‘Relúmino’ además de los proyectos de TI relacionados con la Internet de las Cosas (IoT), los dispositivos ponibles (wearables) y la realidad virtual.

Para más información sobre ‘Relúmino’, por favor visite al sitio https://www.samsungrelumino.com

Fuente: runrun.es

Parapléjico vuelve a tocar la batería, ayudado por las Nuevas Tecnologías

TecnologíaParapléjico vuelve a tocar la batería, ayudado por las Nuevas Tecnologías Andrea Cummins

En 1986,  Alan Cornett quedó parapléjico. Sufrió un grave accidente con su automóvil que lo dejó sin movilidad en sus piernas. Él era baterista y sus sueños habían quedado truncos al recibir una lesión en su médula espinal. Los doctores le había dicho que nunca mas iba a poder volver a tocar la batería. Hasta que decidió utilizar un micrófono en su boca,  mediante su voz y una computadora, replicar el sonido del bombo.

 

El aprendió a utilizar su lengua, para disparar secuencias de una batería electrónica. Con este convertidor trigger-to-midi, transforma la señal creada por los triggers a una señal Midi. Combinando una batería normal, con una electrónica manejada con la boca.

Las nuevas tecnologías deben estar al servicio de personas con capacidades diferentes. Y aprovecharlas, tanto para poder volver a realizar actividades o hobbies y para integrarse a la sociedad.

Según  la Fundación Adecco , el 60 % de loas personas con discapacidad utilizan aplicaciones que facilitan las tareas de la vida cotidiana.

  • Las personas con discapacidad visual son las que más las emplean (77%), seguidas de las que tienen discapacidad auditiva (73%), física (65%) e intelectual (50%).

  • Estas aplicaciones les permiten desde comunicarse en igualdad de condiciones hasta denunciar una violación de un derecho o localizar un aparcamiento accesible.

  • Algunas de las Apps más usadas son Siri, Google Talk Back, VoiceOver (discapacidad visual), SVisual (discapacidad auditiva) o Disabled Park (discapacidad física).

  • Un 84% de las personas con discapacidad afirma que las Nuevas Tecnologías han mejorado su calidad de vida global.

  • Las personas con discapacidad siguen participando de forma exigua en el mercado laboral y las NT pueden ayudar a incrementar su actividad: a través de adaptaciones tecnológicas que les permitan desempeñar puestos de los que antes estaban excluidos, a través de fórmulas como el teletrabajo, etc.

  • De hecho, el 50% de los encuestados con empleo declara que puede desempeñar su puesto gracias a la contribución de las NT.

  • Sin embargo, un 63% sigue encontrando barreras para acceder a las Nuevas Tecnologías, la mayoría de índole económico.

  • Asimismo, la mayoría de los encuestados (80%) cree que el desarrollo de las Nuevas Tecnologías no ha ido acompañado de otras medidas de Accesibilidad, lo que ocasiona situaciones de dependencia injustificadas

Fuente: geeksroom.com

La Inteligencia Artificial ayuda a las personas con discapacidad visual

Accenture desarrolla Drishti, una solución que proporciona asistencia telefónica inteligente utilizando tecnologías como el reconocimiento de imágenes o el procesamiento y generación del lenguaje natural para describir el entorno.

La consultora Accenture ha anunciado el desarrollo de una nueva solución de Inteligencia Artificial diseñada para ayudar a las personas con algún tipo de discapacidad visual a mejorar la forma en que experimentan el mundo que les rodea y optimizar su productividad en el lugar de trabajo. Denominada Drishti, que significa “visión” en sánscrito, forma parte del enfoque de Accenture de aplicar la tecnología para mejorar la forma en que el mundo vive y trabaja resolviendo desafíos sociales complejos.

Básicamente, esta solución proporciona asistencia telefónica inteligente utilizando tecnologías como el reconocimiento de imágenes, el procesamiento del lenguaje natural y las capacidades de generación de lenguaje natural para describir el entorno de una persona con discapacidad visual. Por ejemplo, es capaz de narrar al usuario el número de personas en una habitación, sus edades, géneros e incluso emociones basadas en expresiones faciales. También se puede utilizar para identificar y narrar el texto de libros y documentos, incluyendo billetes de divisas, e identificar las obstrucciones como puertas de vidrio para mejorar la seguridad del usuario.

De momento, según ha anunciado la compañía, la solución se está probando en Suráfrica, así como una versión en español con empleados de Accenture en Argentina.

En opinión de Paul Daugherty, director de tecnología e innovación de la empresa, esta iniciativa es “un gran ejemplo de cómo la tecnología de IA puede potenciar a los humanos aumentando sus capacidades para que puedan lograr más para ellos y para el mundo que los rodea”. Por su parte, Sanjay Podder, director de Accenture Labs en Bangalore, Accenture Tech4Good y Eisenhower Fellow, asegura: “Al aprovechar los rápidos avances en la tecnología de IA, hemos demostrado con este proyecto el impacto que pueden tener las soluciones innovadoras en la mejora de la forma en que las personas viven y trabajan”, concluye.

Fuente: ituser.es