Silla de ruedas AI autónoma para ayudar a personas con discapacidad

El equipo de expertos de robots del Imperial College de Londres ha ganado $ 50,000 para desarrollar aún más una silla de ruedas artificialmente inteligente controlada por los ojos.

Silla de Ruedas
Crédito: Fotos de ThinkStock

 

El equipo de investigación del Imperial College London ganó $ 50k. El premio fue anunciado como parte del Mobility Unlimited Challenge Challenge Award , que es financiado por Toyota Mobility Foundation y administrado por el Nesta ‘s Challenge Prize Center .

Este premio de investigación ayudará a desarrollar una silla de ruedas autodirigida para personas paralizadas que puedan guiar con su mirada. También esperan hacer que esta silla de ruedas la ponga a disposición de las personas a bajo costo.

El director del proyecto, el Dr. Aldo Faisal de los Departamentos de Computación y Bioingeniería de Imperial, dijo: “Nuestra silla de ruedas ayudará a las personas a navegar por sus hogares y el mundo exterior. Si el usuario puede mover sus ojos para mirar el mundo, puede operar la silla de ruedas que lee las intenciones de sus ojos “.

El poder de la AI se está volviendo accesible y asequible para la gente común. Nosotros en Imperial estamos aprovechando su poder para mejorar vidas.
– Dr. Aldo Faisal

La silla de ruedas inteligente artificial autodidacta combina las tecnologías existentes disponibles, como el sistema de seguimiento ocular y las computadoras portátiles, con la silla de ruedas eléctrica.

La silla utiliza un sensor de Detección y rango de luz ( LiDAR ). Este sensor se basa en el infrarrojo, que se usa con mayor frecuencia en los autos sin conductor para generar un mapa de 360 ​​grados del entorno del usuario.

The self-driving artificially intelligent wheelchair

 

El rastreador ocular en silla de ruedas informa los momentos oculares a la AI y el programa AI define a dónde debe moverse la silla de ruedas y la guía para evitar obstáculos.

La silla de ruedas artificialmente inteligente autodidacta

Los componentes AI y LiDAR han hecho que sea más fácil navegar en la silla de ruedas evitando obstáculos sin más respuesta humana.

La silla de ruedas artificialmente inteligente autodidacta

 

La tecnología ayudará a las personas gravemente discapacitadas a restablecer su independencia a bajo costo.
– Noyan Songur y Mahendran Subramanian

El Dr. Faisal dijo: “Nuestra silla de ruedas es un gran ejemplo de innovación. También demuestra que el poder de la AI se está volviendo accesible y asequible para las personas comunes. Nosotros en Imperial estamos aprovechando su poder para mejorar vidas “.

Los estudiantes de posgrado del equipo de Aldo, Noyan Songur y Mahendran Subramanian dijeron: “Estos sistemas inteligentes de inteligencia artificial pueden aprender y mejorar de forma específica para el usuario a lo largo del tiempo, por lo que podemos trabajar con los pacientes desde el primer día para identificar sus necesidades y expectativas. La tecnología ayudará a las personas gravemente discapacitadas a restablecer su independencia a bajo costo “.

Fuente: techexplorist.com

“Prosthetic hands” se vuelven inteligentes, y son sensibles al tacto

Por 

Las prótesis se transforman en extensiones controladas por la mente del cuerpo humano que permiten a los usuarios sentir lo que están tocando.

Las prótesis se transforman en extensiones controladas por la mente del cuerpo humano que permiten a los usuarios sentir lo que están tocando.

Garrett Anderson casi le rompe la mano a su abuela mientras trataba de darle un suave apretón.

El sargento retirado del ejército de EE. UU., Que había perdido su brazo derecho debajo del codo en 2005 mientras patrullaba en Irak, no pudo determinar cuánta presión aplicaba con su mano protésica. Es un problema común.

Cuando sostenemos un bolígrafo, estrechamos una mano o tomamos una cáscara de huevo, instintivamente sabemos cuánta presión ejercer sin aplastar el objeto. Tal retroalimentación sensorial no es posible con la mayoría de las manos protésicas, que permiten a los amputados sujetar un objeto, pero no pueden decirles cuánta presión están usando.

Anderson, de 41 años, ha estado haciendo su parte para cambiar eso. Durante los últimos tres años, ha estado probando prototipos que lo hacen sentir nuevamente.

“Puedo sentir tocar la mano de mi hija o tocar la mano de mi esposa, o recoger una cáscara de huevo sin aplastarla”, dice Anderson sobre su trabajo con Psyonic , una nueva empresa que opera en el Parque de Investigación de la Universidad de Illinois, en Urbana-Champaign. . Psyonic espera proporcionar prótesis comerciales con detección de presión el próximo año, y otras con retroalimentación sensorial en algún momento después de eso.

La tecnología está en el umbral de convertir lo impensable en realidad. Las prótesis incómodas y torpes se transforman en extensiones controladas por la mente del cuerpo humano que les dan a los usuarios un sentido del tacto y un mayor rango de movimiento.

Junto con la retroalimentación sensorial, las prótesis de goma y silicona de Psyonic utilizan el aprendizaje automático para brindar a sus usuarios un control intuitivo. La extremidad protésica modular de la Universidad Johns Hopkinspromete ofrecer una fuerza “humana”, destreza y sensación controladas por el pensamiento. Actualmente se encuentra en la fase de investigación. Y la compañía islandesa Ossur está llevando a cabo ensayos preclínicos sobre prótesis de piernas y pies controladas por la mente. Estos y otros avances podrían hacer que sea más fácil para los amputados realizar los tipos de tareas que la mayoría de las personas dan por hecho.

Señales de mano

Al igual que muchas prótesis ya en el mercado, la mano Psyonic de Anderson es lo que se llama una prótesis mioeléctrica, lo que significa que se controla utilizando señales eléctricas generadas por los músculos restantes de su brazo. Los músculos en su antebrazo le dicen a sus dedos que se flexionen y se extiendan, por ejemplo.

No lo llamo una prótesis. De hecho, lo llamo mi brazo.

Jodie O’Connell-Ponkos

Cuando Anderson piensa en mover la mano, los electrodos en la mano protésica miden las señales eléctricas de su antebrazo, mientras que el software de reconocimiento de patrones detecta si quiere abrir o cerrar la mano, juntar los dedos o cerrar un puño, por ejemplo. En efecto, sus pensamientos controlan su mano artificial.

Pero es la retroalimentación sensorial de la prótesis, gracias a los sensores de presión en las yemas de los dedos, lo que le permite a Anderson estrechar la mano sin romper huesos, sostener una delicada cáscara de huevo con los ojos vendados o clavar un clavo en una tabla. Cuando toca un objeto, esos sensores le permiten sentir vibraciones, hormigueo o presión.

Control del pensamiento

Sin algo así como el software de reconocimiento de patrones, una prótesis mioeléctrica puede ser difícil de controlar.

Eso fue cierto para Jodie O’Connell-Ponkos, una entrenadora de caballos en Ghent, Nueva York, que había perdido la mano en una picadora de carne industrial cuando tenía 16 años. A menudo luchó para que su prótesis funcionara porque era difícil para alinear los sensores a los músculos de sus brazos.

“El brazo casi me hizo sentir como un fracaso a veces”, dice O’Connell-Ponkos, de 49 años. “Era más incómodo de llevar que no usar, así que opté por alejarme de él”.

Más de 20 años después, en 2015, recibió una mano protésica de la empresa alemana Ottobock que había sido equipada con un controlador de Coapt, en Chicago.

De manera similar a la prótesis de Psyonic, el sistema de Coapt decodifica las señales eléctricas de los músculos restantes de un amputado. Igualmente importante, también utiliza un algoritmo de reconocimiento de patrones para traducir la intención en movimiento.

O’Connell-Ponkos ahora usa su mano artificial para todo, desde atarse los zapatos y ponerse el pelo en una cola de caballo para cortar leña y entrenar caballos. “No hay mucho que no haya resuelto cómo hacer”, dice ella. “No lo llamo una prótesis. De hecho, lo llamo mi brazo”.

La tecnología de Coapt ha estado en el mercado desde 2012 y es compatible con una variedad de prótesis de ocho compañías.

Tales avances tecnológicos no están limitados a la parte superior del cuerpo.

Es realmente esa experiencia humana que estamos comenzando a restaurar.

Dustin Tyler

Ossur , con sede en Reykjavik, Islandia, comenzó un esfuerzo para desarrollar prótesis de pierna y pie controladas por el pensamiento. Para que funcionen, los cirujanos implantarían un pequeño sensor mioeléctrico en los músculos restantes de las piernas de los amputados. El sensor recibe los impulsos eléctricos subconscientes del cerebro y, con la ayuda de un procesador por separado, redirige las señales a la prótesis. El objetivo: permitir que los amputados se muevan y caminen sin pensarlo conscientemente.

“Usted está devolviendo lo que llamamos el ‘control voluntario’ para el paciente”, dice Kim DeRoy, vicepresidente ejecutivo de investigación y desarrollo en Ossur. “Y eso es algo que, para muchos pacientes, falta”.

Mirando hacia el futuro

El futuro de las prótesis es todo acerca de los implantes.

Específicamente, los investigadores están explorando el uso de implantes pequeños con forma de píldora insertados profundamente en un músculo, lo que permite un control más preciso y preciso.

Pero ese no es su único beneficio potencial si la investigación de Dustin Tyler se desarrolla. El profesor de ingeniería biomédica de la Universidad Case Western Reserve está desarrollando una técnica que podría engañar al cerebro para que piense que las sensaciones provienen de la mano faltante de carne y hueso.

El esfuerzo consiste en colocar un manguito de electrodos alrededor de los nervios restantes de la persona amputada y conectar esos manguitos a un pequeño dispositivo implantado en el pecho que, a su vez, activa esos nervios. Una conexión Bluetooth vinculará el implante de tórax con el brazo protésico, de modo que cuando el brazo toque algo, active los nervios. Tyler cree que los implantes podrían obtener la aprobación de la FDA dentro de los próximos 10 años.

“Es realmente esa experiencia humana que estamos comenzando a restaurar”, dice. “No creo que debamos subestimar el valor de eso”.

Video Mobile app helps amputee better use prosthetic

Fuente: cnet.com

 

Un nuevo banco de datos podría enseñar a las computadoras a decirle a las personas invidentes lo que necesitan saber

Sus creadores plantean un desafío para los investigadores de visión artificial: utilizar la información para mejorar la tecnología asistencial.

por Emerging Technology from the arXiv

Una de las tareas más difíciles para las computadoras es “responder preguntas visuales”, es decir, responder una pregunta sobre una imagen. Y este no es un avance teórico: estas habilidades podrían ser cruciales para la tecnología que ayuda a las personas ciegas a tener una vida diaria.

Las personas invidentes pueden usar aplicaciones para tomar una foto, grabar una pregunta como “¿De qué color es esta camisa?” O “¿Cuándo vence esta leche?”, Y luego pedir voluntarios para que respondan. Pero las imágenes a menudo están mal definidas, mal enfocadas o carecen de la información necesaria para responder la pregunta. Después de todo, los fotógrafos no pueden ver.

Los sistemas de visión artificial podrían ayudar, por ejemplo, filtrando las imágenes inadecuadas y sugiriendo que el fotógrafo intente de nuevo. Pero las máquinas no pueden hacer esto todavía, en parte porque no existe un conjunto significativo de datos de imágenes del mundo real que puedan usarse para capacitarlos.

 Distribution of the first six words for all questions in VizWiz. The innermost ring represents the first word and each subsequent ring represents a subsequent word. The arc size is proportional to the number of questions with that initial word/phrase.
Distribution of the first six words for all questions in VizWiz. The innermost ring represents the first word and each subsequent ring represents a subsequent word. The arc size is proportional to the number of questions with that initial word/phrase.

 

Entra Danna Gurari en la Universidad de Texas en Austin y algunos colegas, que hoy publican una base de datos de 31,000 imágenes junto con preguntas y respuestas sobre ellas. Al mismo tiempo, Gurari y compañía crearon un desafío para la comunidad de la visión artificial: usar su conjunto de datos para entrenar máquinas como asistentes efectivos para este tipo de problemas de la vida real.

El conjunto de datos proviene de una aplicación existente llamada VizWiz, desarrollada por Jeff Bigham y sus colegas de la Universidad Carnegie Mellon en Pittsburgh para ayudar a las personas invidentes. Bigham también es miembro de este equipo de investigación.

Al usar la aplicación, una persona invidente puede tomar una fotografía, grabar una pregunta verbalmente y luego enviar ambas a un equipo de voluntarios que responden lo mejor que pueden.

Pero la aplicación tiene una serie de deficiencias. Los voluntarios no siempre están disponibles, por ejemplo, y las imágenes no siempre hacen posible una respuesta.

En su esfuerzo por encontrar una mejor manera, Gurari y compañía comenzaron analizando más de 70,000 fotos recopiladas por VizWiz de usuarios que habían aceptado compartirlas. El equipo eliminó todas las fotos que contenían información personal, como información de tarjetas de crédito, direcciones o desnudos. Eso dejó unas 31,000 imágenes y las grabaciones asociadas con ellas.

Luego, el equipo presentó las imágenes y las preguntas a los trabajadores del servicio de crowdsourcing Mechanical Turk de Amazon, pidiéndoles a cada trabajador que respondiera con una breve oración. El equipo reunió 10 respuestas para cada imagen para verificar la consistencia.

Estas 31,000 imágenes, preguntas y respuestas conforman la nueva base de datos de VizWiz, que Gurari y compañía están poniendo a disposición del público.

El equipo también ha llevado a cabo un análisis preliminar de los datos, que proporciona información única sobre los desafíos que enfrenta la visión artificial al proporcionar este tipo de ayuda.

Las preguntas son a veces simples, pero de ninguna manera siempre. Muchas preguntas se pueden resumir como “¿Qué es esto?” Sin embargo, solo el 2 por ciento solicita una respuesta de sí o no, y menos del 2 por ciento se puede responder con un número.

Y hay otras características inesperadas. Resulta que aunque la mayoría de las preguntas comienzan con la palabra “qué”, casi una cuarta parte comienza con una palabra mucho más inusual. Esto es casi seguramente el resultado del proceso de grabación recortando el comienzo de la pregunta.

Pero las respuestas a menudo son aún posibles. Haga preguntas como “Vender o utilizar por fecha de esta caja de cartón de leche” o “¿El horno está configurado para agradecer?”. Ambos son fáciles de responder si la imagen proporciona la información correcta.

El equipo también analizó las imágenes. Más de un cuarto no son aptos para obtener una respuesta, porque no son claros o no contienen la información relevante. Ser capaz de detectar estos de forma rápida y precisa sería un buen comienzo para un algoritmo de visión artificial.

Y ahí está el desafío para la comunidad de visión artificial. “Presentamos este conjunto de datos para alentar a una comunidad más grande a desarrollar algoritmos más generalizados que puedan ayudar a las personas invidentes”, dicen Gurari y compañía. “Mejorar los algoritmos en VizWiz puede simultáneamente educar a más personas sobre las necesidades tecnológicas de las personas invidentes, al tiempo que ofrece una oportunidad nueva y emocionante para que los investigadores desarrollen tecnologías de asistencia que eliminen las barreras de accesibilidad para las personas invidentes”.

Sin duda, un objetivo digno.

Ref: arxiv.org/abs/1802.08218 : Gran desafío de VizWiz: respuesta a preguntas visuales de personas invidentes.

Fuente: technologyreview.com

La innovadora pantalla led que se adhiere a la piel

El invento fue desarrollado en Japón y, aunque faltan pruebas para que se use a nivel clínico, sería de gran ayuda para personas mayores y personas con discapacidad porque monitorea el estado físico y transmite datos desde y hacia dispositivos electrónicos.

Científicos de la Universidad de Tokio desarrollaron una ingeniosa pantalla led de 14 x 16 luces que se adhiere a la piel.

El invento cuenta con un sensor ultradelgado que contiene un electrodo; es con este instrumento que puede monitorear el ritmo cardíaco y transmite los datos a la pantalla, lo que puede resultar muy favorable para personas mayores o con discapacidades. Además, ayudaría a quienes las cuidan pues no solo transmite los datos a la pantalla sino también a dispositivos electrónicos, por lo que los médicos pueden analizar su estado físico.

Según el profesor Takao Someya, quien lideró la investigación, la pantalla, que tiene un milímetro de espesor, “mejorará la calidad de vida” al permitir, por ejemplo, recordar a un enfermo que tome su medicación”.

Los responsables del proyecto aseguran que buscarán expandir sus usos a otros sectores como la construcción o el mantenimiento pues en la pantalla podrán consultar manuales de operaciones. De igual forma, quieren desarrollar una versión para deportistas.

Fuente: france24.com

 

Tecnologías para gente con discapacidad visual

Desde tablets hasta un anillo para la lectura

Publicado en: Ciudad de México, el 2018-01-04 10:30:00 por 

Cada 4 de enero, a partir de su instauración en el 200 por la Unión Mundial de Ciegos, se celebra el Día Mundial del Braille en conmemoración a su inventor Luis Braille. Año con año, uno de los objetivos de la celebración escrear conciencia sobre la integración de las personas con alguna discapacidad visual y buscar que se desenvuelvan en un ambiente de igualdad sin ninguna discriminación

El Braille es un alfabeto con el cual es posible representar letras, signos de puntuación, grafía científica, números, símbolos matemáticos y música. Consiste en seis puntos en relieve que se organizan como una matriz de tres filas por dos columnas y se enumeran de arriba a abajo y de izquierda a derecha. Con estos puntos se pueden obtener 64 combinaciones diferentes, leídas a través de un movimiento de la mano de izquierda a derecha.

Uno de los objetivos de la Organización Mundial de la Salud (OMS) es reducir un 25% para 2019 las causas evitables como cataratas o defectos de visión no corregidos. Sin embargo, algunos expertos afirman que la meta es muy lejana. Por su parte, la Agencia Internacional para la Prevención de la Ceguera prevé un aumento en la incidencia de este padecimiento en 5.6% para el 2020. Además de estas enfermedades propias de los ojos, la diabetes y el envejecimiento de la población son también causas de pérdida de vista.

“Los avances tecnológicos han permitido crear soluciones para facilitar el desarrollo de quienes padecen una debilidad visual”

Actualmente, los avances tecnológicos han permitido crear soluciones para facilitar el desarrollo de quienes padecen una debilidad en la vista. Desde comandos de voz que pueden controlar electrodomésticos hasta cinturones de navegación, estos son algunos inventos realizados para aquellos tienen una discapacidad visual:

  • FingerReader: Un grupo de investigadores del MIT Media Laboratory utilizó un algoritmo el cual reconoce palabras que, en conjunto con un dispositivo similar a un anillo de su creación, puede identificar y leer texto en voz alta. Conforme la persona mueve su dedo por la página, el aparato emite algunas señales, sonidos o vibraciones para avisar al usuario cuando vaya a cambiar incorrectamente de renglón.
  • Ferrotoch: Desarrollado por una estudiante de ingeniería de Harvard, en esta tableta de ferrofluido se coloca una matriz de electroimanes que permiten recrear símbolos del Braille y representar desde patrones y puntos hasta alguna forma compleja.
  • Tap Tap See: Este es un dispositivo capaz de identificar objetos. Con solo una foto, la aplicación puede describir el elemento fotografiado y es capaz de detectar desde cosas tan sencillas como un lápiz, hasta cosas más complejas como el color de una blusa.
  • Color ID: Este artefacto es ideal para quienes son diseñadores gráficos, pues permite identificar los colores de los objetos.
  • Blitab: Este aparato fue presentado en la CES 2017 y es una tablet diseñada para las personas con discapacidad visual. Cuenta con un panel Braille táctil, que se puede adaptar al contenido visitado por el usuario. Este artefacto funciona a través de microfluidos, los cuales generan burbujas para reflejar la información en la superficie táctil. También con el dispositivo es posible enviar órdenes por medio de voz.
  • Eyesynth: Éstas son las primeras gafas capaces de convertir la información espacial y de vista en un audio comprensible para quienes tienen discapacidad visual. Funciona mediante una cámara 3D y un algoritmo el cual transforma espacios en sonido abstracto, transmitido mediante auriculares especiales que “implantan” el sonido directamente en la cóclea del oído interno.

MP/dpa

Fuente: mypress.mx