Silla de ruedas AI autónoma para ayudar a personas con discapacidad

El equipo de expertos de robots del Imperial College de Londres ha ganado $ 50,000 para desarrollar aún más una silla de ruedas artificialmente inteligente controlada por los ojos.

Silla de Ruedas
Crédito: Fotos de ThinkStock

 

El equipo de investigación del Imperial College London ganó $ 50k. El premio fue anunciado como parte del Mobility Unlimited Challenge Challenge Award , que es financiado por Toyota Mobility Foundation y administrado por el Nesta ‘s Challenge Prize Center .

Este premio de investigación ayudará a desarrollar una silla de ruedas autodirigida para personas paralizadas que puedan guiar con su mirada. También esperan hacer que esta silla de ruedas la ponga a disposición de las personas a bajo costo.

El director del proyecto, el Dr. Aldo Faisal de los Departamentos de Computación y Bioingeniería de Imperial, dijo: “Nuestra silla de ruedas ayudará a las personas a navegar por sus hogares y el mundo exterior. Si el usuario puede mover sus ojos para mirar el mundo, puede operar la silla de ruedas que lee las intenciones de sus ojos “.

El poder de la AI se está volviendo accesible y asequible para la gente común. Nosotros en Imperial estamos aprovechando su poder para mejorar vidas.
– Dr. Aldo Faisal

La silla de ruedas inteligente artificial autodidacta combina las tecnologías existentes disponibles, como el sistema de seguimiento ocular y las computadoras portátiles, con la silla de ruedas eléctrica.

La silla utiliza un sensor de Detección y rango de luz ( LiDAR ). Este sensor se basa en el infrarrojo, que se usa con mayor frecuencia en los autos sin conductor para generar un mapa de 360 ​​grados del entorno del usuario.

The self-driving artificially intelligent wheelchair

 

El rastreador ocular en silla de ruedas informa los momentos oculares a la AI y el programa AI define a dónde debe moverse la silla de ruedas y la guía para evitar obstáculos.

La silla de ruedas artificialmente inteligente autodidacta

Los componentes AI y LiDAR han hecho que sea más fácil navegar en la silla de ruedas evitando obstáculos sin más respuesta humana.

La silla de ruedas artificialmente inteligente autodidacta

 

La tecnología ayudará a las personas gravemente discapacitadas a restablecer su independencia a bajo costo.
– Noyan Songur y Mahendran Subramanian

El Dr. Faisal dijo: “Nuestra silla de ruedas es un gran ejemplo de innovación. También demuestra que el poder de la AI se está volviendo accesible y asequible para las personas comunes. Nosotros en Imperial estamos aprovechando su poder para mejorar vidas “.

Los estudiantes de posgrado del equipo de Aldo, Noyan Songur y Mahendran Subramanian dijeron: “Estos sistemas inteligentes de inteligencia artificial pueden aprender y mejorar de forma específica para el usuario a lo largo del tiempo, por lo que podemos trabajar con los pacientes desde el primer día para identificar sus necesidades y expectativas. La tecnología ayudará a las personas gravemente discapacitadas a restablecer su independencia a bajo costo “.

Fuente: techexplorist.com

“Prosthetic hands” se vuelven inteligentes, y son sensibles al tacto

Por 

Las prótesis se transforman en extensiones controladas por la mente del cuerpo humano que permiten a los usuarios sentir lo que están tocando.

Las prótesis se transforman en extensiones controladas por la mente del cuerpo humano que permiten a los usuarios sentir lo que están tocando.

Garrett Anderson casi le rompe la mano a su abuela mientras trataba de darle un suave apretón.

El sargento retirado del ejército de EE. UU., Que había perdido su brazo derecho debajo del codo en 2005 mientras patrullaba en Irak, no pudo determinar cuánta presión aplicaba con su mano protésica. Es un problema común.

Cuando sostenemos un bolígrafo, estrechamos una mano o tomamos una cáscara de huevo, instintivamente sabemos cuánta presión ejercer sin aplastar el objeto. Tal retroalimentación sensorial no es posible con la mayoría de las manos protésicas, que permiten a los amputados sujetar un objeto, pero no pueden decirles cuánta presión están usando.

Anderson, de 41 años, ha estado haciendo su parte para cambiar eso. Durante los últimos tres años, ha estado probando prototipos que lo hacen sentir nuevamente.

“Puedo sentir tocar la mano de mi hija o tocar la mano de mi esposa, o recoger una cáscara de huevo sin aplastarla”, dice Anderson sobre su trabajo con Psyonic , una nueva empresa que opera en el Parque de Investigación de la Universidad de Illinois, en Urbana-Champaign. . Psyonic espera proporcionar prótesis comerciales con detección de presión el próximo año, y otras con retroalimentación sensorial en algún momento después de eso.

La tecnología está en el umbral de convertir lo impensable en realidad. Las prótesis incómodas y torpes se transforman en extensiones controladas por la mente del cuerpo humano que les dan a los usuarios un sentido del tacto y un mayor rango de movimiento.

Junto con la retroalimentación sensorial, las prótesis de goma y silicona de Psyonic utilizan el aprendizaje automático para brindar a sus usuarios un control intuitivo. La extremidad protésica modular de la Universidad Johns Hopkinspromete ofrecer una fuerza “humana”, destreza y sensación controladas por el pensamiento. Actualmente se encuentra en la fase de investigación. Y la compañía islandesa Ossur está llevando a cabo ensayos preclínicos sobre prótesis de piernas y pies controladas por la mente. Estos y otros avances podrían hacer que sea más fácil para los amputados realizar los tipos de tareas que la mayoría de las personas dan por hecho.

Señales de mano

Al igual que muchas prótesis ya en el mercado, la mano Psyonic de Anderson es lo que se llama una prótesis mioeléctrica, lo que significa que se controla utilizando señales eléctricas generadas por los músculos restantes de su brazo. Los músculos en su antebrazo le dicen a sus dedos que se flexionen y se extiendan, por ejemplo.

No lo llamo una prótesis. De hecho, lo llamo mi brazo.

Jodie O’Connell-Ponkos

Cuando Anderson piensa en mover la mano, los electrodos en la mano protésica miden las señales eléctricas de su antebrazo, mientras que el software de reconocimiento de patrones detecta si quiere abrir o cerrar la mano, juntar los dedos o cerrar un puño, por ejemplo. En efecto, sus pensamientos controlan su mano artificial.

Pero es la retroalimentación sensorial de la prótesis, gracias a los sensores de presión en las yemas de los dedos, lo que le permite a Anderson estrechar la mano sin romper huesos, sostener una delicada cáscara de huevo con los ojos vendados o clavar un clavo en una tabla. Cuando toca un objeto, esos sensores le permiten sentir vibraciones, hormigueo o presión.

Control del pensamiento

Sin algo así como el software de reconocimiento de patrones, una prótesis mioeléctrica puede ser difícil de controlar.

Eso fue cierto para Jodie O’Connell-Ponkos, una entrenadora de caballos en Ghent, Nueva York, que había perdido la mano en una picadora de carne industrial cuando tenía 16 años. A menudo luchó para que su prótesis funcionara porque era difícil para alinear los sensores a los músculos de sus brazos.

“El brazo casi me hizo sentir como un fracaso a veces”, dice O’Connell-Ponkos, de 49 años. “Era más incómodo de llevar que no usar, así que opté por alejarme de él”.

Más de 20 años después, en 2015, recibió una mano protésica de la empresa alemana Ottobock que había sido equipada con un controlador de Coapt, en Chicago.

De manera similar a la prótesis de Psyonic, el sistema de Coapt decodifica las señales eléctricas de los músculos restantes de un amputado. Igualmente importante, también utiliza un algoritmo de reconocimiento de patrones para traducir la intención en movimiento.

O’Connell-Ponkos ahora usa su mano artificial para todo, desde atarse los zapatos y ponerse el pelo en una cola de caballo para cortar leña y entrenar caballos. “No hay mucho que no haya resuelto cómo hacer”, dice ella. “No lo llamo una prótesis. De hecho, lo llamo mi brazo”.

La tecnología de Coapt ha estado en el mercado desde 2012 y es compatible con una variedad de prótesis de ocho compañías.

Tales avances tecnológicos no están limitados a la parte superior del cuerpo.

Es realmente esa experiencia humana que estamos comenzando a restaurar.

Dustin Tyler

Ossur , con sede en Reykjavik, Islandia, comenzó un esfuerzo para desarrollar prótesis de pierna y pie controladas por el pensamiento. Para que funcionen, los cirujanos implantarían un pequeño sensor mioeléctrico en los músculos restantes de las piernas de los amputados. El sensor recibe los impulsos eléctricos subconscientes del cerebro y, con la ayuda de un procesador por separado, redirige las señales a la prótesis. El objetivo: permitir que los amputados se muevan y caminen sin pensarlo conscientemente.

“Usted está devolviendo lo que llamamos el ‘control voluntario’ para el paciente”, dice Kim DeRoy, vicepresidente ejecutivo de investigación y desarrollo en Ossur. “Y eso es algo que, para muchos pacientes, falta”.

Mirando hacia el futuro

El futuro de las prótesis es todo acerca de los implantes.

Específicamente, los investigadores están explorando el uso de implantes pequeños con forma de píldora insertados profundamente en un músculo, lo que permite un control más preciso y preciso.

Pero ese no es su único beneficio potencial si la investigación de Dustin Tyler se desarrolla. El profesor de ingeniería biomédica de la Universidad Case Western Reserve está desarrollando una técnica que podría engañar al cerebro para que piense que las sensaciones provienen de la mano faltante de carne y hueso.

El esfuerzo consiste en colocar un manguito de electrodos alrededor de los nervios restantes de la persona amputada y conectar esos manguitos a un pequeño dispositivo implantado en el pecho que, a su vez, activa esos nervios. Una conexión Bluetooth vinculará el implante de tórax con el brazo protésico, de modo que cuando el brazo toque algo, active los nervios. Tyler cree que los implantes podrían obtener la aprobación de la FDA dentro de los próximos 10 años.

“Es realmente esa experiencia humana que estamos comenzando a restaurar”, dice. “No creo que debamos subestimar el valor de eso”.

Video Mobile app helps amputee better use prosthetic

Fuente: cnet.com

 

El sistema informático transcribe palabras que los usuarios “hablan en silencio”

Arnav Kapur, un investigador en el grupo de Interfaces de fluidos en el MIT Media Lab, demuestra el proyecto AlterEgo.
Arnav Kapur, un investigador en el grupo de Interfaces de fluidos en el MIT Media Lab, demuestra el proyecto AlterEgo. Imagen: Lorrie Lejeune / MIT

 

Larry Hardesty | Oficina de Noticias del MIT

Los electrodos en la cara y la mandíbula captan señales neuromusculares indetectables desencadenadas por verbalizaciones internas.

Los investigadores del MIT han desarrollado una interfaz de computadora que puede transcribir palabras que el usuario verbaliza internamente, pero que en realidad no hablan en voz alta.

El sistema consiste en un dispositivo portátil y un sistema informático asociado. Los electrodos en el dispositivo captan señales neuromusculares en la mandíbula y en la cara que se desencadenan mediante verbalizaciones internas, diciendo palabras “en tu cabeza”, pero son indetectables para el ojo humano. Las señales se alimentan a un sistema de aprendizaje automático que ha sido entrenado para correlacionar señales particulares con palabras particulares.

El dispositivo también incluye un par de auriculares de conducción ósea, que transmiten las vibraciones a través de los huesos de la cara hacia el oído interno. Debido a que no obstruyen el canal auditivo, los auriculares permiten que el sistema transmita información al usuario sin interrumpir la conversación ni interferir con la experiencia auditiva del usuario.

El dispositivo es, por lo tanto, parte de un completo sistema de computación silenciosa que permite al usuario plantear y recibir indetectablemente respuestas a problemas de computación difíciles. En uno de los experimentos de los investigadores, por ejemplo, los sujetos usaron el sistema para informar silenciosamente los movimientos de los oponentes en un juego de ajedrez y de forma silenciosa recibir respuestas recomendadas por la computadora.

“La motivación para esto fue construir un dispositivo IA, un dispositivo de aumento de inteligencia”, dice Arnav Kapur, un estudiante graduado en el MIT Media Lab, quien dirigió el desarrollo del nuevo sistema. “Nuestra idea era: ¿Podríamos tener una plataforma informática que sea más interna, que fusione humanos y máquinas de alguna manera y que se sienta como una extensión interna de nuestra propia cognición?”

“Básicamente no podemos vivir sin nuestros teléfonos celulares, nuestros dispositivos digitales”, dice Pattie Maes, profesora de artes y ciencias de los medios y asesora de tesis de Kapur. “Pero por el momento, el uso de esos dispositivos es muy perturbador. Si quiero buscar algo que sea relevante para una conversación que estoy teniendo, tengo que encontrar mi teléfono y escribir el código de acceso, abrir una aplicación y escribir una palabra clave de búsqueda, y todo requiere que cambie completamente la atención de mi entorno y las personas con las que estoy con el teléfono. Por lo tanto, mis alumnos y yo hemos estado experimentando durante mucho tiempo con nuevos factores de forma y nuevos tipos de experiencia que permiten a las personas aún beneficiarse de todos los maravillosos conocimientos y servicios que estos dispositivos nos brindan, pero hágalo de una manera que nos permita ellos permanecen en el presente “.

Los investigadores describen su dispositivo en un documento que presentaron en la conferencia ACM Intelligent User Interface de la Association for Computing Machinery. Kapur es el primer autor del artículo, Maes es el autor principal, y están acompañados por Shreyas Kapur, estudiante de pregrado en ingeniería eléctrica y ciencias de la computación.

Señales sutiles

La idea de que las verbalizaciones internas tienen correlatos físicos ha existido desde el siglo XIX, y se investigó seriamente en la década de 1950. Uno de los objetivos del movimiento de lectura rápida de la década de 1960 era eliminar la verbalización interna, o “subvocalización”, como se la conoce.

Pero la subvocalización como una interfaz de computadora es en gran parte inexplorada. El primer paso de los investigadores fue determinar qué ubicaciones en la cara son las fuentes de las señales neuromusculares más confiables. Así que llevaron a cabo experimentos en los que se les pidió a los mismos sujetos que subvocalizaran la misma serie de palabras cuatro veces, con un conjunto de 16 electrodos en diferentes localizaciones faciales cada vez.

Los investigadores escribieron el código para analizar los datos resultantes y encontraron que las señales de siete ubicaciones de electrodos particulares eran consistentemente capaces de distinguir las palabras subvocalizadas. En el documento de la conferencia, los investigadores informan un prototipo de una interfaz portátil de voz silenciosa, que se envuelve alrededor de la parte posterior del cuello como un auricular de teléfono y tiene apéndices curvos tipo tentáculo que tocan la cara en siete lugares a ambos lados de la boca y a lo largo de las mandíbulas.

Pero en los experimentos actuales, los investigadores obtienen resultados comparables usando solo cuatro electrodos a lo largo de una mandíbula, lo que debería conducir a un dispositivo portátil menos molesto.

Una vez que seleccionaron las ubicaciones de los electrodos, los investigadores comenzaron a recopilar datos sobre algunas tareas computacionales con vocabularios limitados, unas 20 palabras cada una. Una era la aritmética, en la cual el usuario subvocalizaba grandes problemas de suma o multiplicación; otra era la aplicación de ajedrez, en la cual el usuario informaría movimientos usando el sistema estándar de numeración de ajedrez.

Luego, para cada aplicación, usaron una red neuronal para encontrar correlaciones entre señales neuromusculares particulares y palabras particulares. Al igual que la mayoría de las redes neuronales, la que utilizaron los investigadores está dispuesta en capas de nodos de procesamiento simples, cada uno de los cuales está conectado a varios nodos en las capas superiores e inferiores. Los datos se introducen en la capa inferior, cuyos nodos la procesan y pasan a la siguiente capa, cuyos nodos la procesan y pasan a la siguiente capa, y así sucesivamente. El rendimiento de los rendimientos finales de la capa es el resultado de alguna tarea de clasificación.

La configuración básica del sistema de los investigadores incluye una red neuronal entrenada para identificar palabras subvocalizadas a partir de señales neuromusculares, pero puede personalizarse para un usuario particular a través de un proceso que reacondiciona solo las dos últimas capas.

Cuestiones prácticas

Utilizando la interfaz prototipo portátil, los investigadores realizaron un estudio de usabilidad en el que 10 sujetos pasaron unos 15 minutos cada uno personalizando la aplicación aritmética a su propia neurofisiología, y luego pasaron otros 90 minutos usándolo para ejecutar cálculos. En ese estudio, el sistema tenía una precisión de transcripción promedio de aproximadamente el 92 por ciento.

Pero, Kapur dice, el rendimiento del sistema debería mejorar con más datos de capacitación, que podrían recopilarse durante su uso ordinario. Aunque no ha cruzado los números, estima que el sistema mejor entrenado que usa para las demostraciones tiene una tasa de precisión más alta que la informada en el estudio de usabilidad.

En el trabajo en curso, los investigadores están recopilando una gran cantidad de datos en conversaciones más elaboradas, con la esperanza de crear aplicaciones con vocabularios mucho más expansivos. “Estamos en el medio de recopilar datos, y los resultados se ven bien”, dice Kapur. “Creo que lograremos una conversación completa algún día”.

“Creo que están rebajando un poco lo que creo que es un potencial real para el trabajo”, dice Thad Starner, profesor de la Facultad de informática de Georgia Tech. “Como, digamos, controlar los aviones en la pista del aeropuerto de Hartsfield aquí en Atlanta. Tienes ruido de avión a tu alrededor, estás usando estas grandes protecciones para los oídos: ¿no sería genial comunicarse con la voz en un entorno donde normalmente no podrías? Puede imaginar todas estas situaciones en las que tiene un entorno de alto ruido, como la cabina de vuelo de un portaaviones, o incluso lugares con mucha maquinaria, como una planta de energía o una imprenta. Este es un sistema que tendría sentido, especialmente porque a menudo en este tipo de situaciones las personas ya están usando equipo de protección. Por ejemplo, si eres un piloto de combate,

“La otra cosa donde esto es extremadamente útil es operaciones especiales”, agrega Starner. “Hay muchos lugares en los que no es un entorno ruidoso, sino un entorno silencioso. Mucho tiempo, las personas con operaciones especiales tienen gestos con las manos, pero no siempre se pueden ver. ¿No sería genial tener un discurso silencioso para la comunicación entre estas personas? El último es personas con discapacidades en las que no pueden vocalizar normalmente. Por ejemplo, Roger Ebert no tenía la capacidad de hablar más porque perdió la mandíbula debido al cáncer. ¿Podría hacer este tipo de discurso silencioso y luego tener un sintetizador que diga las palabras?

Fuente: news.mit.edu

Breaking Sound Barriers, una ‘app’ para alumnos con discapacidad auditiva

Investigadores de la Universidad Politécnica de Madrid han desarrollado una aplicación para el móvil que facilita la integración en las aulas de las personas con discapacidad auditiva. El prototipo es capaz de subtitular las clases y grabarlas en vídeo para su posterior revisión.

Breaking Sound Barriers, una ‘app’ para alumnos con discapacidad auditiva

 

Cerca de 32 millones de niños sufren sordera en el mundo y en España hay casi un millón de personas con problemas de hipoacusia, aunque en la mayor parte de los casos, son personas que tienen más de 65 años. Sin embargo, cuando los estudiantes con algún tipo de discapacidad auditiva llegan a las aulas, el objetivo debe ser que puedan seguir los estudios con normalidad sin verse discriminados respecto al resto de sus compañeros.

Con esa finalidad nace Breaking Sound Barriers, una app diseñada para romper barreras en el entorno educativo y en cuya creación y desarrollo han colaborado investigadores de la Universidad Politécnica de Madrid (UPM).

Este prototipo de entorno educativo es capaz de subtitular la clase para estudiantes con discapacidad auditiva

La aplicación, que busca facilitar a los jóvenes el seguimiento de una clase, ha sido desarrollada dentro del grupo Mercator del Instituto de Investigación del Automóvil (INSIA) y del departamento de Inteligencia Artificial de la Escuela Técnica Superior de Ingenieros Informáticos de la UPM.

“Consiste en un prototipo de entorno educativo capaz de subtitular la clase para estudiantes con discapacidad auditiva. La clase se emite en vídeo y queda guardada para que los alumnos puedan consultarla en el futuro, así como hacer preguntas al profesor y a los compañeros. Además, el sistema permite la gestión de diversas asignaturas y salas de impartición”, explica Francisco Serradilla, uno de los investigadores de la UPM que han participado en su desarrollo.

Totalmente personalizable, Breaking Sound Barriers permite el reconocimiento de voz en múltiples idiomas, facilitando al alumno la posibilidad de realizar preguntas y respuestas, y de recibir el contenido expuesto por el profesor a través de imágenes y subtítulos.

“Esta última funcionalidad es la más demandada dado que muchos estudiantes con algún tipo de discapacidad auditiva saben leer los labios, pero en una clase pueden darse muchas situaciones y momentos en los que el profesor no está mirando directamente al alumno”, explica Serradilla.

Un repositorio de apuntes

La aplicación funciona también como un repositorio de apuntes que permite establecer filtros y acceder a un foro. Para poder utilizar la aplicación, tanto los alumnos como los profesores deben descargarla en sus tablets o smartphones. “Contar con una herramienta como esta también es útil para el profesor, puesto que facilita gestionar alumnos, salas y asignaturas; realizar preguntas; emitir subtítulos y acceder al foro, entre otras funcionalidades”, añade.

Breaking Sound Barriers ha sido desarrollada en uno de los LABS del Programa Talentum de Telefónica. Por su parte, Ericsson y la Fundación Adecco también han participado en este programa que busca impulsar el talento joven.

El siguiente paso para el equipo de investigadores es realizar pilotos más amplios para optimizar el funcionamiento y rendimiento de la aplicación. “Queremos también centrarnos en el desarrollo de una app más ligera que centrada solo en la subtitulación de las clases, la función que hasta ahora parece ser la más demandada”, concluye Serradilla.

Fuente: panamaon.com

UC Berkeley lanza tecnología para contenidos de cursos accesibles

Por Rhea Kelly

Blackboard Ally

Después de un piloto de un semestre de la solución Blackboard’s Ally para contenido de cursos accesibles, la Universidad de California, Berkeley está expandiendo el uso de la tecnología en todo el campus. El lanzamiento comenzará este otoño, y para el final del próximo año, el sistema proporcionará materiales de cursos accesibles a más de 40,000 estudiantes de pregrado y posgrado, según un comunicado de prensa.

Blackboard Ally ejecuta automáticamente los materiales del curso a través de una lista de verificación de accesibilidad y luego genera formatos de contenido alternativos como HTML Semántico, audio, ePub y Braille electrónico. El sistema también ofrece recomendaciones a los instructores para mejorar el acceso a los materiales de sus cursos. Una función de informe proporciona información sobre el estado de la accesibilidad del contenido a nivel de curso, así como a nivel institucional.

“Berkeley se compromete a crear entornos de aprendizaje en línea inclusivos para todos y cada uno de nuestros estudiantes”, dijo Catherine Koshland, vicerrectora de educación de pregrado, en un comunicado. “Nuestra colaboración con Blackboard ayudará a garantizar que el contenido digital sea accesible de manera constante en Berkeley, beneficiando a todos los alumnos y, en última instancia, mejorando el éxito de los estudiantes”.

Fuente: campustechnology.com