Samsung lanza una app para ayudar a personas con baja visión

relumino App

Samsung Electronics anunció que lanzará ‘Relúmino,’ una aplicación de asistencia visual para las personas con baja visión.

‘Relúmino’ es una aplicación de asistencia visual que funciona en conjunto con el Gear VR para aumentar la visión de las personas con deficiencia visual. Los usuarios con los modelos más recientes de los teléfonos inteligentes Galaxy, incluyendo los Galaxy S7, S7 Edge, S8 y S8+ conseguirán descargar ‘Relúmino’ de forma gratuita en Oculus Store con soporte tanto para inglés como para coreano. ‘Relúmino’ no proporciona soporte para los que son totalmente ciegos.

“Relúmino cambiará la vida para los 240 millones de personas con deficiencia visual alrededor del mundo y prometemos un apoyo sólido y continuo”, dijo Jaiil Lee, vicepresidente y responsable del Centro de Creatividad e Innovación en Samsung Electronics.

La aplicación de asistencia visual procesa las imágenes a partir de los vídeos proyectados por la cámara trasera de un teléfono inteligente y hace que las imágenes sean apropiadas para las personas con deficiencia visual. Más específicamente, sus principales características incluyen aumentar y minimizar la imagen; resaltar el contorno de la imagen; ajustar el contraste de los colores y el brillo; revertir el color; y filtrar los colores de la pantalla. El efecto final es que ‘Relúmino’ permite que las personas con deficiencia visual vean las imágenes más claras cuando están leyendo un libro o mirando a un objeto, por ejemplo.

Para aquellos que padecen de un punto ciego en la visión o la Visión en Túnel, que es la pérdida de la visión periférica con la retención de la visión central, ‘Relúmino’ ayuda remapeando las imágenes desapercibidas para colocarlas en las partes visibles del ojo. Específicamente, cuando los usuarios establecen los tamaños de un punto ciego o visión en túnel para el uso por primera vez, la aplicación automáticamente coloca el punto ciego en las partes circundantes visibles y coloca las imágenes dentro del ‘túnel’ o el rango visible, ayudando los usuarios que tienen un defecto del campo visual para que vean las cosas mejor. A diferencia de las otras asistencias visuales con calidad semejante que frecuentemente cuestan miles de dólares, los usuarios de ‘Relúmino’ pueden desfrutar de las características equivalentes por un precio mucho más asequible.

A principios de este año en Barcelona, Relúmino atrajo mucha atención en el congreso Mundial de la Telefonía Móvil, el mayor encuentro del mundo para la industria de la telefonía móvil. El programa incubador interno de Samsung, el C-Lab, recibió opiniones positivas por presentar una tecnología desarrollada para ayudar las personas con deficiencia física en lugar de perseguir las ganancias con los dispositivos convencionales de la VR (realidad virtual).

Elegido como un proyecto de C-Lab el pasado mes de mayo, se proyectó inicialmente Relúmino para ayudar para que las personas con deficiencia visual desfruten de las actividades cotidianas tales como ver la TV y leer libros como las personas sin discapacidad física. Los miembros del proyecto dieron el nombre ‘Relúmino’ a su aplicación lo que significa ‘Re-iluminar’ en latín, ya que querían ayudar que las personas con deficiencia visual sientan la alegría de las actividades cotidianas que la mayoría de las personas habitualmente dé por hecho.

Mientras se concluye dentro del año la mayoría de los proyectos de C-Lab, Relúmino continuará a efectuar las tareas de seguimiento. Piensa en desarrollar productos tipo gafas para que las personas con deficiencia visual puedan usar las asistencias visuales en su vida cotidiana sin llamar las atenciones de los demás. Sumando a esto, el equipo tratará de forma continua las inconveniencias que surjan de la aplicación recientemente liberada obteniendo las opiniones de los usuarios.

Lanzado en diciembre de 2012, el C-Lab es un programa de negocio para empresas emergentes (startup) que fomenta una cultura corporativa creativa e ideas innovadoras entre los empleados de Samsung. El programa da apoyo a los proyectos que contribuyen a la sociedad como ‘Relúmino’ además de los proyectos de TI relacionados con la Internet de las Cosas (IoT), los dispositivos ponibles (wearables) y la realidad virtual.

Para más información sobre ‘Relúmino’, por favor visite al sitio https://www.samsungrelumino.com

Fuente: runrun.es

https://youtu.be/RGu49jN-E7U

Parapléjico vuelve a tocar la batería, ayudado por las Nuevas Tecnologías

TecnologíaParapléjico vuelve a tocar la batería, ayudado por las Nuevas Tecnologías Andrea Cummins

En 1986,  Alan Cornett quedó parapléjico. Sufrió un grave accidente con su automóvil que lo dejó sin movilidad en sus piernas. Él era baterista y sus sueños habían quedado truncos al recibir una lesión en su médula espinal. Los doctores le había dicho que nunca mas iba a poder volver a tocar la batería. Hasta que decidió utilizar un micrófono en su boca,  mediante su voz y una computadora, replicar el sonido del bombo.

 

El aprendió a utilizar su lengua, para disparar secuencias de una batería electrónica. Con este convertidor trigger-to-midi, transforma la señal creada por los triggers a una señal Midi. Combinando una batería normal, con una electrónica manejada con la boca.

Las nuevas tecnologías deben estar al servicio de personas con capacidades diferentes. Y aprovecharlas, tanto para poder volver a realizar actividades o hobbies y para integrarse a la sociedad.

Según  la Fundación Adecco , el 60 % de loas personas con discapacidad utilizan aplicaciones que facilitan las tareas de la vida cotidiana.

  • Las personas con discapacidad visual son las que más las emplean (77%), seguidas de las que tienen discapacidad auditiva (73%), física (65%) e intelectual (50%).

  • Estas aplicaciones les permiten desde comunicarse en igualdad de condiciones hasta denunciar una violación de un derecho o localizar un aparcamiento accesible.

  • Algunas de las Apps más usadas son Siri, Google Talk Back, VoiceOver (discapacidad visual), SVisual (discapacidad auditiva) o Disabled Park (discapacidad física).

  • Un 84% de las personas con discapacidad afirma que las Nuevas Tecnologías han mejorado su calidad de vida global.

  • Las personas con discapacidad siguen participando de forma exigua en el mercado laboral y las NT pueden ayudar a incrementar su actividad: a través de adaptaciones tecnológicas que les permitan desempeñar puestos de los que antes estaban excluidos, a través de fórmulas como el teletrabajo, etc.

  • De hecho, el 50% de los encuestados con empleo declara que puede desempeñar su puesto gracias a la contribución de las NT.

  • Sin embargo, un 63% sigue encontrando barreras para acceder a las Nuevas Tecnologías, la mayoría de índole económico.

  • Asimismo, la mayoría de los encuestados (80%) cree que el desarrollo de las Nuevas Tecnologías no ha ido acompañado de otras medidas de Accesibilidad, lo que ocasiona situaciones de dependencia injustificadas

Fuente: geeksroom.com

La Inteligencia Artificial ayuda a las personas con discapacidad visual

Accenture desarrolla Drishti, una solución que proporciona asistencia telefónica inteligente utilizando tecnologías como el reconocimiento de imágenes o el procesamiento y generación del lenguaje natural para describir el entorno.

La consultora Accenture ha anunciado el desarrollo de una nueva solución de Inteligencia Artificial diseñada para ayudar a las personas con algún tipo de discapacidad visual a mejorar la forma en que experimentan el mundo que les rodea y optimizar su productividad en el lugar de trabajo. Denominada Drishti, que significa “visión” en sánscrito, forma parte del enfoque de Accenture de aplicar la tecnología para mejorar la forma en que el mundo vive y trabaja resolviendo desafíos sociales complejos.

Básicamente, esta solución proporciona asistencia telefónica inteligente utilizando tecnologías como el reconocimiento de imágenes, el procesamiento del lenguaje natural y las capacidades de generación de lenguaje natural para describir el entorno de una persona con discapacidad visual. Por ejemplo, es capaz de narrar al usuario el número de personas en una habitación, sus edades, géneros e incluso emociones basadas en expresiones faciales. También se puede utilizar para identificar y narrar el texto de libros y documentos, incluyendo billetes de divisas, e identificar las obstrucciones como puertas de vidrio para mejorar la seguridad del usuario.

De momento, según ha anunciado la compañía, la solución se está probando en Suráfrica, así como una versión en español con empleados de Accenture en Argentina.

En opinión de Paul Daugherty, director de tecnología e innovación de la empresa, esta iniciativa es “un gran ejemplo de cómo la tecnología de IA puede potenciar a los humanos aumentando sus capacidades para que puedan lograr más para ellos y para el mundo que los rodea”. Por su parte, Sanjay Podder, director de Accenture Labs en Bangalore, Accenture Tech4Good y Eisenhower Fellow, asegura: “Al aprovechar los rápidos avances en la tecnología de IA, hemos demostrado con este proyecto el impacto que pueden tener las soluciones innovadoras en la mejora de la forma en que las personas viven y trabajan”, concluye.

Fuente: ituser.es

Investigación de la UPNA sobre tecnología asistida para tetrapléjicos

El ingeniero Mikel Ariz Galilea ha diseñado un método para estimar la posición de la cabeza y así poder controlar con los ojos dispositivos electrónicos

El ingeniero Mikel Ariz Galilea ha diseñado un método para estimar la posición de la cabeza y así poder controlar con los ojos dispositivos electrónicos

El ingeniero de Telecomunicación Mikel Ariz Galilea (Pamplona, 1984) ha diseñado un método para estimar la posición de la cabeza, un primer paso para saber dónde está mirando una persona y así poder controlar con los ojos dispositivos móviles como ordenadores portátiles, teléfonos inteligentes o tabletas.

Esta investigación, fruto de su tesis doctoral leída en la Universidad Pública de Navarra (UPNA), abre el camino para ofrecer tecnología asistida de bajo coste y gran sencillez de uso a personas con un alto grado de discapacidad motora.

La tecnología asistida está especialmente indicada para personas con un alto grado de discapacidad motora, como las tetrapléjicas. “Gracias a la comercialización de ordenadores que se pueden controlar con la mirada, algunas de ellas han conseguido mejorar su calidad de vida. Sin embargo, se trata de equipamientos muy caros, cuyo acceso es limitado debido a su elevado coste”, ha explicado la UPNA en un comunicado.

La investigación de Mikel Ariz busca que estas personas puedan hacer uso de las técnicas de seguimiento de la mirada con la cámara web de cualquier ordenador, lo que abarataría el proceso.

Actualmente, en la mayoría los proyectos sobre estimación de la mirada, con la que se controlan dispositivos, se trabaja con cámaras de alta resolución, que realizan un seguimiento exhaustivo de los ojos a partir de imágenes en dos dimensiones. Para lograr una definición superior, se utilizan dos iluminadores de infrarrojos, que crean unos reflejos en las pupilas, lo que facilita la detección de estas y ayuda a revelar qué punto de la pantalla del ordenador está observando el usuario.

Las aplicaciones de la tecnología de seguimiento de la mirada son múltiples: desde el control de dispositivos móviles por parte de personas tetrapléjicas a la asistencia a la conducción (mediante dispositivos que, conociendo dónde mira una persona, evitan que se duerma o se distraiga al volante), pasando por campos muy amplios de la ingeniería biomédica.

POSICIÓN Y ORIENTACIÓN DE LA CABEZA

Mikel Ariz ha desarrollado métodos de visión por ordenador para determinar la posición y orientación de la cabeza respecto a la cámara. “La idea ha sido proponer la estimación de la posición de la cabeza en tres dimensiones, de manera que se indique la rotación y la traslación. Este es un paso muy importante, porque utilizando la información del posicionamiento de la cabeza es más sencillo saber dónde está mirando la persona, que sería el paso siguiente que habría que dar para concluir el proyecto”, señala Mikel Ariz, cuya tesis, dirigida por los profesores del Departamento de Ingeniería Eléctrica y Electrónica Rafael Cabeza Laguna y Arantxa Villanueva Larre, obtuvo la calificación de sobresaliente ‘cum laude’.

Aunque su metodología no ofrece la misma definición que la de las cámaras de alta resolución, se ha obtenido más precisión y mejores resultados que en similares trabajos anteriores. “Se trata de un proyecto muy ambicioso y, lo más importante: accesible para todas las personas, tanto por su coste como por su sencillez. Tan solo sería necesario un ordenador portátil con cámara web. Además, también se podría utilizar como aplicación móvil en teléfonos inteligentes o en tabletas, algo en lo que se trabaja mucho actualmente”, comenta el nuevo doctor.

Asimismo, otra de las ventajas de la investigación de Mikel Ariz reside en que no precisa un entrenamiento previo por parte del usuario, “un proceso complejo y muy costoso en tiempo que, además, necesita amplias bases de datos anotadas”. “Esta metodología, en cambio, no lo necesita, lo que supone un valor añadido”, apunta.

Finalmente, la metodología desarrollada en esta investigación es generalizable a cualquier objeto. “En la tesis, se ha aplicado a caras y a personas, pero se puede probar con cualquier objeto al que se quiera hacer un seguimiento con la cámara en el espacio. Tan solo se necesita un modelo tridimensional aproximado de ese objeto. Por ejemplo, se podría reconstruir un edificio turístico en tres dimensiones a partir de fotografías”, concluye.

Mikel Ariz se tituló en 2008 en Ingeniería de Telecomunicación por la Universidad Pública de Navarra (UPNA) con premio extraordinario al mejor expediente académico de su promoción. Tras trabajar durante dicieciocho meses en la UPNA con una beca de formación de tecnólogos, obtuvo una beca del Gobierno de Navarra para cursar un Máster en Ingeniería Biomédica en la Universidad de Melbourne (Australia). A su regreso, obtuvo una beca FPU (Formación de Profesorado Universitario) del Ministerio de Economía, Industria y Competitividad, con la que ha desarrollado su tesis en el ámbito de procesado digital de imagen y visión artificial. En 2012, realizó una estancia de investigación en el Imperial College London (universidad de la capital británica).

Actualmente, trabaja en la Plataforma de Imagen del CIMA (Centro de Investigación Médica Aplicada) de Pamplona y está involucrado en diversos proyectos de investigación, principalmente, en el área de imagen del cáncer. Es, además, profesor asociado del Departamento de Histología y Anatomía Patológica de la Universidad de Navarra.

Fuente: diariodenavarra.es

Tecnología permite controlar robots con la mirada

La tecnología abre muchas posibilidades para aplicaciones industriales y sociales en beneficio de personas con discapacidad

Tecnología permite controlar robots con la mirada

 

Controlar robots con la mirada ya es posible gracias a una nueva tecnología desarrollada por la multinacional suiza ABB y la compañía española Irisbond, que abre un abanico ilimitado de posibilidades para todo tipo de aplicaciones industriales y sociales, en el ámbito de la discapacidad.

La presentación de este novedosa tecnología, desarrollada bajo el paraguas del programa Bind 4.0 del Gobierno vasco (norte de España) para fomentar la colaboración entre empresas ya asentadas y emergente, se desarrolló hoy a través de la disputa de una partida de ajedrez entre dos mujeres.

Una de ellas, en silla de ruedas debido a una grave discapacidad de movimientos, estuvo asistida por un robot al que ordenaba realizar distintos movimientos de piezas con la mirada.

Algo posible mediante un ordenador en cuya pantalla aparecía un tablero de ajedrez sobre el que la mujer posaba la mirada para indicar la pieza que deseaba mover y en qué escaque depositarla.

El robot, situado en medio de la mesa y dotado de dos brazos articulados similares visualmente a los de las máquinas quirúrgicas de precisión, movió así varias piezas e incluso se comió la reina de su oponente.

La máquina, que tiene en su memoria las reglas de ajedrez y que no permite realizar movimientos prohibidos en el juego, controla también las acciones de la persona que no sufre discapacidad, quien le ha indicado mediante un ratón los desplazamientos de sus fichas.

Una vez concluida la partida, el robot se ha encargado de recoger las piezas y posicionarlas nuevamente en su correspondiente casilla inicial.

Una tecnología denominada “eye-tracking” que podría permitir a un cirujano consultar con la mirada el historial de un paciente mientras le está operando, o a un conductor descolgar el teléfono de su coche al recibir una llamada con solo un movimiento de sus ojos.

La solución desarrollada ahora está basada en un software denominado “webtracker” que permite el control de ordenadores con el movimiento de los ojos, monitorizados a través de una webcam, y que utiliza sofisticados algoritmos basados en el posicionamiento de la cara y de la visión para permitir a los usuarios interactuar con el robot y controlarlo de una forma natural.

Esta investigación abre un amplio campo de posibilidades para nuevas aplicaciones de robótica industrial, especialmente en la “robótica colaborativa”, incluyendo nuevas opciones de integración laboral para personas con discapacidad.

(Fuente: EFE)

Fuente: elcomercio.pe