Un 60% de personas con discapacidad usa ‘apps’ en su vida cotidiana

Las personas con discapacidad visual y auditiva son las que más emplean 'apps' específicas.

 

La mayoría de las personas con alguna discapacidad afirma que las nuevas tecnologías han mejorado su calidad de vida. Según el último informe de la Fundación Adecco y Keysight Technologies, las personas con discapacitad visual son las que más las emplean (77%), seguidas de la auditiva (73%), física (65%) e intelectual (50%).

En los últimos años, las aplicaciones móviles han supuesto toda una revolución tecnológica. Algunas en particular dan servicios más específicos y se han convertido en auténticas aliadas para las personas con discapacidad, permitiéndoles normalizar muchos aspectos de su vida.

De acuerdo con los últimos datos publicados en el Informe Tecnología y Discapacidad, realizado por la Fundación Adecco y Keysight Technologies Spain, un 60% de las personas con discapacidad son usuarios de appsespecíficas.

Estas tecnologías permiten comunicarse y manejar los dispositivos móviles en igualdad de condiciones o denunciar la violación de un derecho, por ejemplo, siendo más empleas por los que tienen discapacidad visual (77%), seguidos de los que tienen discapacidad auditiva (73%), física (65%) e intelectual (50%).

Algunas de las aplicaciones más usadas son Siri, Google Talk Back o VoiceOver, que ayudan a interactuar con su dispositivo móvil a las personas con discapacidad visual, así como SVisual (comunicación telefónica entre personas sordas) o Disabled Park (localización de espacios accesibles para personas con movilidad reducida).

Barreras para acceder a los dispositivos inteligentes

Además, el 84% de las personas encuestadas afirma que las nuevas tecnologías han mejorado su calidad de vida global. De hecho, la mitad de los encuestados con empleo declara que puede desempeñar su puesto de trabajo gracias a la contribución de estos dispositivos.

No obstante, la participación de personas con discapacidad en el mercado laboral sigue siendo exigua y se espera que las nuevas tecnologías ayuden a incrementar su actividad en mayor medida.

Por otro lado, el 80% de los encuestados cree que el desarrollo de las tecnologías no ha ido acompañado de otras medidas de accesibilidad, lo que ocasiona situaciones de dependencia injustificadas. En general, siguen encontrando barreras para acceder a los dispositivos inteligentes, la mayoría de ellas de índole económica o formativa.

Fuente: elboletin.com

La tecnología desvela qué sienten las personas con discapacidad intelectual

Investigadores del IRD crean una base de datos para reconocer sus emociones a partir de patrones de señales fisiológicas

Unos sensores situados en sus dedos y sobre su cabeza permiten identificar cómo se siente Salud Fernández mientras realiza actividades cognitivas asistida por Marta Muñoz, de la Fundación Ave Maria (Carles Castro / GARRAF NEWS MEDIA)
Unos sensores situados en sus dedos y sobre su cabeza permiten identificar cómo se siente Salud Fernández mientras realiza actividades cognitivas asistida por Marta Muñoz, de la Fundación Ave Maria (Carles Castro / GARRAF NEWS MEDIA)

 

Barcelona

26/06/2017 00:18 | Actualizado a 26/06/2017 11:50

Laia Valls sonríe. Sonríe durante todo el tiempo que duran las entrevistas para este reportaje. Pero no es posible dilucidar si está contenta, nerviosa, o quizá estresada; su discapacidad intelectual le impide expresar su estado de ánimo y dificulta reconocerlo. Aunque, para ser exactos, habría que decir que no es posible identificar cómo se siente a simple vista, pero sí si se conecta a la plataforma de actividades Armoni provista de una diadema y de una pulsera llenas de sensores.

Porque gracias a una combinación de dispositivos wearables y del software algoritmos desarrollados por los investigadores del Instituto de Robótica para la Dependencia (IRD), ya es posible objetivar el estado anímico de las personas con discapacidad intelectual grave.

Se ha logrado en el marco del proyecto AutonoMe que impulsa laFundación Ave María de Sitges –que ofrece atención especializada a adultos con discapacidad intelectual– a través del IRD, galardonado con un premio a la innovación social de Obra Social “La Caixa”.

“El proyecto nace de la voluntad de querer saber de manera objetiva el estado anímico de personas que no pueden expresarlo por sí mismas o que ni siquiera tienen conciencia de él, porque se trata de una información valiosa para mejorar su bienestar y su calidad de vida, para mejorar sus terapias y personalizarlas para que les gusten más y sean más efectivas”, explica el director de investigación del IRD, Joan Oliver.

“El proyecto nace de la voluntad de querer saber de manera objetiva el estado anímico de personas que no pueden expresarlo por sí mismas”

JOAN OLIVER Director de investigación del IRD

“El problema es que estas personas no sólo no pueden expresar sus emociones sino que para ellas no sirven las herramientas de ayuda que se usan con otras, como el software de reconocimiento facial, así que pensamos que la solución era mirar en su mente y en su cuerpo las señales fisiológicas que emite su estado de ánimo, porque sabemos por la bibliografía que cada emoción va asociada a unos patrones fisiológicos”, detalla Jainendra Shukla, investigador en robótica que participa en el proyecto.

Laia Valls, con la integradora social Marta Muñoz, mientras realiza tareas de estimulación cognitiva en la plataforma Armoni (Carles Castro / GARRAF NEWS MEDIA)
Laia Valls, con la integradora social Marta Muñoz, mientras realiza tareas de estimulación cognitiva en la plataforma Armoni (Carles Castro / GARRAF NEWS MEDIA)

El hándicap era que no existían esos patrones en personas con discapacidad intelectual, de modo que la primera tarea de los investigadores del IRD fue elaborarlos combinando información externa –expresión facial, seguimiento de la mirada, información subjetiva de los terapeutas que conocen a la persona– con información interna –ritmo cardíaco, actividad electrodermal y cerebral– de algunos de los residentes de la Fundación Ave Maria mientras se les provocaba diferentes emociones intensas, positivas y negativas.

“Durante el experimento les daban un dulce para comer y se grababan las señales que emitía su cerebro, su respiración, la temperatura de su piel, su expresión facial y corporal. para estudiar el patrón de esa emoción positiva; y también se les quitaba algún objeto que apreciaran mucho para grabar el patrón correspondiente a una emoción negativa”, ejemplifica Shukla.

“El problema es que estas personas no sólo no pueden expresar sus emociones sino que para ellas no sirven las herramientas de ayuda que se usan con otras”

JAINENDRA SHUKLA Investigador en robótica

Con toda esa información y la obtenida en otros experimentos mediados con terapeutas que interpretaban su estado de ánimo, los investigadores han elaborado MuDERI, una base de datos multimodal para el reconocimiento de las emociones entre personas con discapacidad intelectual, en la que se ha sistematizado y etiquetado cada estado anímico a partir de los patrones de señales fisiológicas constatados en los experimentos.

“Una vez elaborados estos patrones, el segundo reto ha sido tomar en tiempo real las señales del estado de ánimo de los usuarios de la plataforma de actividades Armoni para cruzarlas con MuDERI, identificar cómo se siente, y adaptar automáticamente la actividad propuesta”, apunta Oliver. Y enfatiza que lo más difícil ha sido recoger en tiempo real la actividad electrodermal, para lo que han desarrollado un algoritmo mil veces más rápido que el que había hasta ahora, el del Instituto Tecnológico de Massachusetts (MIT).

Proyecto AutonoMe

Nació con la voluntad de saber de manera objetiva el estado anímico de las personas que no pueden expresarlo o que ni siquiera tienen conciencia de él

La actividad electrodermal –que ahora recogen con una pulsera y unos sensores en los dedos pero pronto se recogerán mediante un reloj más cómodo de llevar– permite determinar la intensidad de la emoción, pero no si ésta es positiva o negativa. Esto se determina a partir de la actividad cerebral que registra la diadema con 16 polos que se acopla en la cabeza del usuario, analizando las áreas del cerebro más excitadas. Y toda esta información se complementa con los datos del dispositivo que sigue la mirada para evaluar la capacidad de atención y con las expresiones que registra una cámara.

“En función de todos estos parámetros el software reconoce el estado de ánimo del usuario y a partir de ello podemos desarrollar algoritmos que modifiquen las actividades que se le están ofreciendo o que lancen mensajes para llamar su atención si por la mirada vemos que está distraído”, comenta Oliver.

Señales

La actividad electrodermal permite identificar la intensidad de la emoción, pero no si ésta es positiva o negativa; esto se determina a partir de la actividad cerebral que registra la diadema

En una primera fase, el IRD ha vinculado el proyecto AutonoMe a la plataforma digital Armoni, que dispone de una batería de actividades, de imágenes y sonidos para la estimulación cognitiva y tiene la ventaja de registrar todo lo que hace cada persona para ver su evolución cognitiva y emocional en el tiempo, además de permitir personalizar y adaptar las tareas a las posibilidades de cada usuario. Incluye unos test para evaluar a la persona en once dominios cognitivos, como atención, fluencia verbal, coordinación visomotora, memoria verbal a corto y largo plazo…

Pero la intención es implementar el sistema de reconocimiento de emociones también en otros dispositivos con los que trabajan la estimulación de los residentes en la Fundación Ave Maria, como los robots Nao o Pepper. Al mismo tiempo, y en colaboración con el Instituto de Investigación Biomédica de Bellvitge (Idibell) están inmersos en un proceso de validación clínica de la eficacia de Armoni como herramienta terapéutica a nivel cognitivo.

Fuente: lavanguardia.com

Un accesorio permite a personas con discapacidad usar un smartphone

Está pensado para quienes tienen dificultades motrices y que hoy no pueden manejar la pantalla táctil.

Mobility Launcher fue diseñado por el argentino Leonardo Russo

Mobility Launcher, un accesorio desarrollado en Argentina con hardware y software de código libre, promete facilitarles el uso de un smartphone a las personas con discapacidad motriz que hoy se encuentran prácticamente impedidas de accionar pantallas táctiles. El proyecto fue concebido y llevado adelante por Leonardo Russo, un desarrollador que ya experimentó en el campo de la ayuda a personas con discapacidad con Blind Comunicator, una app que informa a ciegos lo que aparece en la pantalla del smartphone.

En este caso, Mobility Launcher es un accesorio que cuenta con una pantalla LCD y una serie de botones, que se conecta mediante un cable USB a smartphones y tablets con Android 3.2 o superior que dispongan de la función USB Host. Una vez establecida la conexión, el smartphone se maneja a través del accesorio y permite al usuario atender y realizar llamadas, recibir y enviar mensajes, escuchar música, usar una grabadora de voz, definir alarmas, gestionar contactos y navegar la web con el motor de Google como punto de partida.

Russo explicó que luego de su positiva experiencia con Blind Comunicator, decidió continuar su ayuda con soluciones de bajo costo. Además de que su software sea de código abierto, Russo decidió que el hardware también utilice tecnología abierta Arduino y que la carcasa pueda ser generada en cualquier impresora 3D. “En el mercado hay accesorios que cuestan 3500 dólares para usar un celular porque siempre se utiliza tecnología propietaria. A mí se me ocurrió hacer uno que puede producirse con la tecnología disponible en el mercado local y global, usando Arduino”, comentó.

El desarrollador dejó disponibles en la web todos los planos necesarios para que un técnico pueda construir su propio Mobility Launcher: “La carcasa 3D puede costar 300 pesos y el hardware restante, unos 900. Todos los esquemáticos están subidos y disponibles en ‘https://github.com/lrusso/MobilityLauncher’. Es gratuito y abierto, se pueden hacer versiones. No quiero hacer una cadena comercial”, aclaró. Sin embargo, Russo dijo comprender que la difusión de un dispositivo que debe ser ensamblado con placas de hardware y que necesita de la impresión 3D para contenerlo “será más dificultosa porque no sólo se trata de bajar una app de un repositorio. Una cosa es la recepción pública de un software y su instalación, algo que estamos acostumbrado a hacer, y otra es armar un hardware. Por eso estaría bueno que lo adopten organizaciones y que se pueda masificar su uso”, concluyó.

Fuente: lmneuquen.com

WeaRobot, el proyecto social que lidera competencia global

WeaRobot, el proyecto social que lidera competencia global

Ernesto Rodríguez, ganador local de The Venture, se ha convertido en el único participante de las tres ediciones de la competencia global en obtener el mayor número de votos a largo de las cinco semanas de votaciones gracias a su proyecto WeaRobot que devuelve la movilidad a personas con discapacidad motriz. The Venture es un concurso que busca a los más destacados emprendedores sociales alrededor del mundo.

En esta primera fase de fondeo, los participantes de treinta países competían por conseguir a través de una votación abierta al público general la mayor parte de una bolsa de $250,000 dólares, de los cuales el regiomontano fundador de WeaRobot recaudó $53,824.34 dólares con un total de 41,044 votos.

“The Chivas Venture ha cambiado nuestro negocio más allá de todas las expectativas. Durante el período de votación recibimos apoyo y mensajes de miles de personas, compartiendo sus historias sobre cómo nuestra tecnología puede impactar positivamente en sus vidas. Este financiamiento nos permitirá realizar un  estudio clínico para demostrar los beneficios del uso de nuestro producto en rehabilitación. ¡Estamos muy emocionados por asistir a la final de Chivas Venture en julio! “, afirmó Ernesto Rodríguez

En la siguiente etapa Ernesto tendrá que realizar su presentación final ante un panel de jueces entre los cuales se encuentran Alexandre Ricard, Presidente y CEO de Pernod Ricard y Sonal Sha, Fundadora de la Oficina de Innovación Social y Participación de la Casa Blanca durante la Presidencia de Barack Obama para posicionarse entre los cinco finalistas y obtener la mayor cantidad de los $750,000 dólares restantes del millón de dólares disponible.

WeaRobot es una empresa fundada en Monterrey que desarrolla exoesqueletos que proporcionan asistencia durante el movimiento y están pensados para resolver el problema de pérdida de movilidad física en adultos mayores o personas con discapacidad física. El principal objetivo de WeaRobot es democratizar esta tecnología al hacerla 46 veces más barata a las opciones actuales y que además de ser más económica, está mejor adaptados a las necesidades particulares; al ser modular.

La final global de The Venture tendrá lugar el 13 de julio en la ciudad de Los Ángeles.

Fuente: entrepreneur.com

WeaRobot y el mexicano que busca abatir la pérdida de movilidad (Fuente:: forbes.com.mx)

 

Personas con discapacidad controlan robots con la mirada

Las personas en condición de discapacidad han podido avanzar mucho con los desarrollos tecnológicos y cada vez estos llegan a pacientes con mayores dificultades.
Las personas en condición de discapacidad han podido avanzar mucho con los desarrollos tecnológicos y cada vez estos llegan a pacientes con mayores dificultades.

La medicina es uno de los campos más beneficiados con los desarrollos tecnológicos y, precisamente por esto, la salud de las personas se ha visto y se verá en el futuro llegar a niveles siempre superiores.

Uno de los grupos de pacientes a los que han llegado más avances tecnológicos son las personas en condición de discapacidad, sobre quienes, precisamente por sus características complejas, ha recaído un especial interés de los desarrolladores de tecnología aplicada a la salud.

Robots sensibles

Grandes avances se han visto en estos campos, en los que se ha llegado hasta muy profundos niveles de análisis genéticos, por ejemplo, hasta investigaciones en el espacio de opciones para el diagnóstico o tratamiento de enfermedades.

Pero, entre tantas necesidades que desde el punto de vista de la salud plantea el ser humano, el de algunas discapacidades como parálisis totales, hasta hace pocos años era muy poco lo que la tecnología podía ofrecer.

Hoy es posible, como lo describe la agencia Efe, controlar robots con la mirada gracias a una nueva tecnología desarrollada por la multinacional suiza ABB y la compañía española Irisbond, que abre un abanico ilimitado de posibilidades para todo tipo de aplicaciones industriales y sociales, en el ámbito de la discapacidad.

Una partida especial

La presentación de este novedosa tecnología, desarrollada bajo el paraguas del programa Bind 4.0 del Gobierno vasco (norte de España) para fomentar la colaboración entre empresas ya asentadas y emergente, se desarrolló a través de la disputa de una partida de ajedrez entre dos mujeres.

Una de ellas, en silla de ruedas debido a una grave discapacidad de movimientos, estuvo asistida por un robot al que ordenaba realizar distintos movimientos de piezas con la mirada.

Algo posible mediante un ordenador en cuya pantalla aparecía un tablero de ajedrez sobre el que la mujer posaba la mirada para indicar la pieza que deseaba mover y en qué escaque depositarla.

El robot, situado en medio de la mesa y dotado de dos brazos articulados similares visualmente a los de las máquinas quirúrgicas de precisión, movió así varias piezas e incluso se comió la reina de su oponente.

Usos múltiples

La máquina, que tiene en su memoria las reglas de ajedrez y que no permite realizar movimientos prohibidos en el juego, controla también las acciones de la persona que no sufre discapacidad, quien le ha indicado mediante un ratón los desplazamientos de sus fichas.

Una vez concluida la partida, el robot se ha encargado de recoger las piezas y posicionarlas nuevamente en su correspondiente casilla inicial.

Una tecnología denominada “eye-tracking” que podría permitir a un cirujano consultar con la mirada el historial de un paciente mientras le está operando, o a un conductor descolgar el teléfono de su coche al recibir una llamada con solo un movimiento de sus ojos.

La solución desarrollada ahora está basada en un software denominado “web-tracker” que permite el control de ordenadores con el movimiento de los ojos, monitorizados a través de una webcam, y que utiliza sofisticados algoritmos basados en el posicionamiento de la cara y de la visión para permitir a los usuarios interactuar con el robot y controlarlo de una forma natural.

Grandes posibilidades

Esta investigación abre un amplio campo de posibilidades para nuevas aplicaciones de robótica industrial, especialmente en la “robótica colaborativa”, incluyendo nuevas opciones de integración laboral para personas con discapacidad.

Ofrecer a las personas con ciertas limitaciones, la posibilidad de actuar sobre las cosas en forma eficiente es un objetivo que hoy está alcanzado, lo que resta es avanzar sobre estos desarrollos para que el desempeño de estas personas sea cada día mejor.

Publicada por: JUAN MARTÍNEZ MARTÍNEZ