Ingenieros inventaron un mouse de computadora para personas que no pueden usar sus manos

Por 

GlassOuse: el primer mouse de asistencia del mundo

 

El GlassOuse es un mouse bluetooth que se usa como gafas. Según los movimientos de tu cabeza, mueve el cursor en pantalla. Muerde una extensión azul para hacer clic, y puede durar una semana sin cargarse. En este momento, está recaudando fondos en IndieGogo, y tendrá un costo de $ 299 cuando esté disponible.

Historia de Jacob Shamsian y edición de Stephen Parkhurst

Fuente, businessinsider.com

DARPA y Microsoft Brain Implants apuntan a reparar las discapacidades y el TEPT

brainimplantmetamorworks

Microsoft  planea desarrollar implantes cerebrales para ayudar con los trastornos neurológicos y otras discapacidades. En noticias relacionadas, la  Agencia de Proyectos de Investigación Avanzada de Defensa de EE. UU.  (DARPA) quiere usar implantes cerebrales para tratar trastornos del estado de ánimo.

¿No sería genial si solo usas un implante cerebral para corregir la depresión, los trastornos compulsivos o la hiperactividad?

Un implante neuronal algún día podría mejorar su vista o darle una mejor memoria. En algunos casos, incluso podría ayudar a mejorar la coordinación ojo-mano de alguien o las habilidades motoras finas.

Es precisamente por eso que tanto el gobierno de los EE. UU. Como Microsoft quieren desarrollar implantes cerebrales. Pero la investigación en torno al concepto todavía no tiene muchas piernas para pararse.

El ejército de Estados Unidos originalmente financió a los investigadores para llevar a cabo pruebas de implantes cerebrales de “circuito cerrado” el año pasado en noviembre. El CEO de Microsoft, Satya Nadella, comenzó a debatir la investigación de Microsoft la semana pasada .

Ambos enfrentan preguntas no solo de factibilidad tecnológica sino también de ética y moralidad.

¿Cuál es el estado actual de la tecnología de implantes cerebrales y cómo puede esta tecnología mejorar o afectar los factores físicos y mentales del cerebro humano?

DARPA y Microsoft Brain Implants apuntan a reparar las discapacidades y el TEPT
Tumisu | Pixabay

 

Cómo DARPA quiere ayudar a los veteranos militares

Aunque cualquier persona puede sufrir de trastorno por estrés postraumático (TEPT), los veteranos militares se enfrentan a un tipo muy específico de trastorno de estrés postraumático. Como tal, DARPA financió investigaciones para ayudar a crear un implante cerebral diseñado para ayudar a los veteranos a lidiar con el TEPT y la depresión.

Dos equipos tomaron enfoques muy diferentes para el proyecto.

El equipo de la Universidad de California en San Francisco quería usar algoritmos construidos después de tomar un “mapa” de los estados de ánimo de los pacientes. El algoritmo proporcionaría impulsos eléctricos basados ​​en el mapeo del estado de ánimo para mantener la homeostasis.

El otro equipo del Hospital General de Massachusetts planea trabajar con partes del cerebro utilizadas en la toma de decisiones y desencadenantes emocionales. Quieren centrarse en problemas endémicos en muchos tipos de enfermedades mentales, como problemas de concentración.

Ambos implantes cuentan con una retroalimentación de “circuito cerrado” en el sentido de que no requieren fuerzas externas para operar. Una vez que se ha mapeado el cerebro del usuario o los investigadores saben qué factores desencadenantes se deben vigilar, los implantes podrían funcionar de forma independiente (teóricamente).

Los investigadores creen que la estimulación de ciclo cerrado tiene más promesa a largo plazo  .

Pero, esto todavía les da a los investigadores una idea de las emociones de una persona en tiempo real. Si estos implantes pueden comenzar a manipular las emociones de una persona con el tiempo, esa persona puede cambiar, para bien o para mal.

La ética de este tipo de tecnología de implantes cerebrales de estimulación en lazo cerrado permanece turbia.

Tomografia de cerebro
La próxima web

El CEO de Microsoft habla mucho sobre implantes para discapacidades

Satya Nadella habló extensamente de la investigación de Microsoft sobre tecnología de implantes cerebrales. De hecho, la compañía previamente buscó obtener una patente sobre un sistema que convirtió los pensamientos en acciones basadas simplemente en el aporte del cerebro.

El hijo de Nadella tiene parálisis cerebral y ceguera, por lo que el proyecto obviamente es importante para él.

La aplicación gratuita de Microsoft Seeing AI narra el mundo alrededor de una persona, describiendo objetos, texto y personas. Puede discernir colores, amigos, niveles de brillo del entorno y más. Está, naturalmente, diseñado para la comunidad de baja visión.

El magnate de la tecnología también ayudó a desarrollar el Proyecto Emma , un dispositivo portátil para reducir los temblores causados ​​por la enfermedad de Parkinson.

Estas soluciones presentan el rasgo de no ser invasivo, mientras que un implante cerebral es el opuesto.

Sin embargo, Nadella expresó su entusiasmo por investigar las interfaces hombre-máquina en un artículo de la CNBC . Él cree que es el siguiente paso para salvar la brecha de Ableismo con la tecnología.

Elon Musk también tiene una mano en la olla de interfaz cerebro-AI con su compañía Neuralink .

Imágen de una neurona
Edgy Labs

 

Una conexión genética y, tal vez, una pista para las soluciones

Muchos estudios han revelado vínculos genéticos con trastornos del estado de ánimo como la depresión . Incluso hay una relación entre la memoria, la ansiedad y la depresión.

Pero así como una nueva investigación sobre la esquizofrenia mostró una solución potencial para identificar el problema, entender las razones genéticas y biológicas de los trastornos del estado de ánimo podría conducir a una mejor tecnología en su tratamiento.

También todavía no sabemos lo suficiente sobre diversos trastornos neurológicos para hacer un implante cerebral de panacea general.

Aunque Microsoft desea ayudar a todos los pacientes, aquellos con trastornos neurológicos genéticos, como la enfermedad de Huntington, pueden ser algunos de los primeros candidatos o candidatos con mayor probabilidad de mostrar respuestas positivas a los implantes cerebrales.

Los implantes de DARPA se dirigen específicamente a las enfermedades mentales con su primer objetivo demográfico: veteranos y soldados con trastorno de estrés postraumático y depresión. Si bien estas enfermedades mentales pueden ser adquiridas, los factores genéticos también juegan un papel en su manifestación.

Fusionar implantes personalizados y adaptados con conocimiento genético mejorará los resultados.

Ahora, si pudiéramos entender por qué el implante cerebral diseñado para tratar el trastorno obsesivo compulsivo (TOC) también ayudó a mejorar la diabetes.

 

“Arkangel” de Black Mirror | Netflix y Charlie Brooker vía express.co.uk

 

Miedo a muchos resultados del Episodio de Black Mirror

Con todos los cambios positivos que pueden aportar los implantes cerebrales, también auguran algunas posibilidades de enfriamiento. Muchos episodios de Black Mirror exploran algunas de estas posibilidades.

Tal vez uno de los casos más relevantes tiene lugar en el episodio ” Arkangel “.

En ella, una madre quiere garantizar la seguridad de su hija, por lo que opta por lo último en tecnología. El implante cerebral “Arkangel” le permite ver a través de los ojos de su hija. También podría pixelar cualquier imagen que la madre considere peligrosa o inapropiada.

El episodio explora cómo esto afecta su relación, pero ya se puede ver cómo tener control sobre lo que alguien ve a través de un implante cerebral es altamente explotable.

Si un hacker pudiera introducirse en el implante de alguien, los efectos podrían ser desastrosos.

Una persona con un trastorno neurológico podría perder el control de su propio cuerpo. Alguien con un implante para un trastorno del estado de ánimo podría ser superado con impulsos eléctricos.

Afortunadamente, todavía no estamos en el punto de que tenemos que responder estas preguntas de riesgo. Aunque, pronto podremos hacerlo si tanto el gobierno de los EE. UU. Como Microsoft continúan la I + D.

¿Qué tipo de implante cerebral obtendrías para mejorar tu calidad de vida?

Silla de ruedas AI autónoma para ayudar a personas con discapacidad

El equipo de expertos de robots del Imperial College de Londres ha ganado $ 50,000 para desarrollar aún más una silla de ruedas artificialmente inteligente controlada por los ojos.

Silla de Ruedas
Crédito: Fotos de ThinkStock

 

El equipo de investigación del Imperial College London ganó $ 50k. El premio fue anunciado como parte del Mobility Unlimited Challenge Challenge Award , que es financiado por Toyota Mobility Foundation y administrado por el Nesta ‘s Challenge Prize Center .

Este premio de investigación ayudará a desarrollar una silla de ruedas autodirigida para personas paralizadas que puedan guiar con su mirada. También esperan hacer que esta silla de ruedas la ponga a disposición de las personas a bajo costo.

El director del proyecto, el Dr. Aldo Faisal de los Departamentos de Computación y Bioingeniería de Imperial, dijo: “Nuestra silla de ruedas ayudará a las personas a navegar por sus hogares y el mundo exterior. Si el usuario puede mover sus ojos para mirar el mundo, puede operar la silla de ruedas que lee las intenciones de sus ojos “.

El poder de la AI se está volviendo accesible y asequible para la gente común. Nosotros en Imperial estamos aprovechando su poder para mejorar vidas.
– Dr. Aldo Faisal

La silla de ruedas inteligente artificial autodidacta combina las tecnologías existentes disponibles, como el sistema de seguimiento ocular y las computadoras portátiles, con la silla de ruedas eléctrica.

La silla utiliza un sensor de Detección y rango de luz ( LiDAR ). Este sensor se basa en el infrarrojo, que se usa con mayor frecuencia en los autos sin conductor para generar un mapa de 360 ​​grados del entorno del usuario.

The self-driving artificially intelligent wheelchair

 

El rastreador ocular en silla de ruedas informa los momentos oculares a la AI y el programa AI define a dónde debe moverse la silla de ruedas y la guía para evitar obstáculos.

La silla de ruedas artificialmente inteligente autodidacta

Los componentes AI y LiDAR han hecho que sea más fácil navegar en la silla de ruedas evitando obstáculos sin más respuesta humana.

La silla de ruedas artificialmente inteligente autodidacta

 

La tecnología ayudará a las personas gravemente discapacitadas a restablecer su independencia a bajo costo.
– Noyan Songur y Mahendran Subramanian

El Dr. Faisal dijo: “Nuestra silla de ruedas es un gran ejemplo de innovación. También demuestra que el poder de la AI se está volviendo accesible y asequible para las personas comunes. Nosotros en Imperial estamos aprovechando su poder para mejorar vidas “.

Los estudiantes de posgrado del equipo de Aldo, Noyan Songur y Mahendran Subramanian dijeron: “Estos sistemas inteligentes de inteligencia artificial pueden aprender y mejorar de forma específica para el usuario a lo largo del tiempo, por lo que podemos trabajar con los pacientes desde el primer día para identificar sus necesidades y expectativas. La tecnología ayudará a las personas gravemente discapacitadas a restablecer su independencia a bajo costo “.

Fuente: techexplorist.com

“Prosthetic hands” se vuelven inteligentes, y son sensibles al tacto

Por 

Las prótesis se transforman en extensiones controladas por la mente del cuerpo humano que permiten a los usuarios sentir lo que están tocando.

Las prótesis se transforman en extensiones controladas por la mente del cuerpo humano que permiten a los usuarios sentir lo que están tocando.

Garrett Anderson casi le rompe la mano a su abuela mientras trataba de darle un suave apretón.

El sargento retirado del ejército de EE. UU., Que había perdido su brazo derecho debajo del codo en 2005 mientras patrullaba en Irak, no pudo determinar cuánta presión aplicaba con su mano protésica. Es un problema común.

Cuando sostenemos un bolígrafo, estrechamos una mano o tomamos una cáscara de huevo, instintivamente sabemos cuánta presión ejercer sin aplastar el objeto. Tal retroalimentación sensorial no es posible con la mayoría de las manos protésicas, que permiten a los amputados sujetar un objeto, pero no pueden decirles cuánta presión están usando.

Anderson, de 41 años, ha estado haciendo su parte para cambiar eso. Durante los últimos tres años, ha estado probando prototipos que lo hacen sentir nuevamente.

“Puedo sentir tocar la mano de mi hija o tocar la mano de mi esposa, o recoger una cáscara de huevo sin aplastarla”, dice Anderson sobre su trabajo con Psyonic , una nueva empresa que opera en el Parque de Investigación de la Universidad de Illinois, en Urbana-Champaign. . Psyonic espera proporcionar prótesis comerciales con detección de presión el próximo año, y otras con retroalimentación sensorial en algún momento después de eso.

La tecnología está en el umbral de convertir lo impensable en realidad. Las prótesis incómodas y torpes se transforman en extensiones controladas por la mente del cuerpo humano que les dan a los usuarios un sentido del tacto y un mayor rango de movimiento.

Junto con la retroalimentación sensorial, las prótesis de goma y silicona de Psyonic utilizan el aprendizaje automático para brindar a sus usuarios un control intuitivo. La extremidad protésica modular de la Universidad Johns Hopkinspromete ofrecer una fuerza “humana”, destreza y sensación controladas por el pensamiento. Actualmente se encuentra en la fase de investigación. Y la compañía islandesa Ossur está llevando a cabo ensayos preclínicos sobre prótesis de piernas y pies controladas por la mente. Estos y otros avances podrían hacer que sea más fácil para los amputados realizar los tipos de tareas que la mayoría de las personas dan por hecho.

Señales de mano

Al igual que muchas prótesis ya en el mercado, la mano Psyonic de Anderson es lo que se llama una prótesis mioeléctrica, lo que significa que se controla utilizando señales eléctricas generadas por los músculos restantes de su brazo. Los músculos en su antebrazo le dicen a sus dedos que se flexionen y se extiendan, por ejemplo.

No lo llamo una prótesis. De hecho, lo llamo mi brazo.

Jodie O’Connell-Ponkos

Cuando Anderson piensa en mover la mano, los electrodos en la mano protésica miden las señales eléctricas de su antebrazo, mientras que el software de reconocimiento de patrones detecta si quiere abrir o cerrar la mano, juntar los dedos o cerrar un puño, por ejemplo. En efecto, sus pensamientos controlan su mano artificial.

Pero es la retroalimentación sensorial de la prótesis, gracias a los sensores de presión en las yemas de los dedos, lo que le permite a Anderson estrechar la mano sin romper huesos, sostener una delicada cáscara de huevo con los ojos vendados o clavar un clavo en una tabla. Cuando toca un objeto, esos sensores le permiten sentir vibraciones, hormigueo o presión.

Control del pensamiento

Sin algo así como el software de reconocimiento de patrones, una prótesis mioeléctrica puede ser difícil de controlar.

Eso fue cierto para Jodie O’Connell-Ponkos, una entrenadora de caballos en Ghent, Nueva York, que había perdido la mano en una picadora de carne industrial cuando tenía 16 años. A menudo luchó para que su prótesis funcionara porque era difícil para alinear los sensores a los músculos de sus brazos.

“El brazo casi me hizo sentir como un fracaso a veces”, dice O’Connell-Ponkos, de 49 años. “Era más incómodo de llevar que no usar, así que opté por alejarme de él”.

Más de 20 años después, en 2015, recibió una mano protésica de la empresa alemana Ottobock que había sido equipada con un controlador de Coapt, en Chicago.

De manera similar a la prótesis de Psyonic, el sistema de Coapt decodifica las señales eléctricas de los músculos restantes de un amputado. Igualmente importante, también utiliza un algoritmo de reconocimiento de patrones para traducir la intención en movimiento.

O’Connell-Ponkos ahora usa su mano artificial para todo, desde atarse los zapatos y ponerse el pelo en una cola de caballo para cortar leña y entrenar caballos. “No hay mucho que no haya resuelto cómo hacer”, dice ella. “No lo llamo una prótesis. De hecho, lo llamo mi brazo”.

La tecnología de Coapt ha estado en el mercado desde 2012 y es compatible con una variedad de prótesis de ocho compañías.

Tales avances tecnológicos no están limitados a la parte superior del cuerpo.

Es realmente esa experiencia humana que estamos comenzando a restaurar.

Dustin Tyler

Ossur , con sede en Reykjavik, Islandia, comenzó un esfuerzo para desarrollar prótesis de pierna y pie controladas por el pensamiento. Para que funcionen, los cirujanos implantarían un pequeño sensor mioeléctrico en los músculos restantes de las piernas de los amputados. El sensor recibe los impulsos eléctricos subconscientes del cerebro y, con la ayuda de un procesador por separado, redirige las señales a la prótesis. El objetivo: permitir que los amputados se muevan y caminen sin pensarlo conscientemente.

“Usted está devolviendo lo que llamamos el ‘control voluntario’ para el paciente”, dice Kim DeRoy, vicepresidente ejecutivo de investigación y desarrollo en Ossur. “Y eso es algo que, para muchos pacientes, falta”.

Mirando hacia el futuro

El futuro de las prótesis es todo acerca de los implantes.

Específicamente, los investigadores están explorando el uso de implantes pequeños con forma de píldora insertados profundamente en un músculo, lo que permite un control más preciso y preciso.

Pero ese no es su único beneficio potencial si la investigación de Dustin Tyler se desarrolla. El profesor de ingeniería biomédica de la Universidad Case Western Reserve está desarrollando una técnica que podría engañar al cerebro para que piense que las sensaciones provienen de la mano faltante de carne y hueso.

El esfuerzo consiste en colocar un manguito de electrodos alrededor de los nervios restantes de la persona amputada y conectar esos manguitos a un pequeño dispositivo implantado en el pecho que, a su vez, activa esos nervios. Una conexión Bluetooth vinculará el implante de tórax con el brazo protésico, de modo que cuando el brazo toque algo, active los nervios. Tyler cree que los implantes podrían obtener la aprobación de la FDA dentro de los próximos 10 años.

“Es realmente esa experiencia humana que estamos comenzando a restaurar”, dice. “No creo que debamos subestimar el valor de eso”.

Video Mobile app helps amputee better use prosthetic

Fuente: cnet.com

 

Un nuevo banco de datos podría enseñar a las computadoras a decirle a las personas invidentes lo que necesitan saber

Sus creadores plantean un desafío para los investigadores de visión artificial: utilizar la información para mejorar la tecnología asistencial.

por Emerging Technology from the arXiv

Una de las tareas más difíciles para las computadoras es “responder preguntas visuales”, es decir, responder una pregunta sobre una imagen. Y este no es un avance teórico: estas habilidades podrían ser cruciales para la tecnología que ayuda a las personas ciegas a tener una vida diaria.

Las personas invidentes pueden usar aplicaciones para tomar una foto, grabar una pregunta como “¿De qué color es esta camisa?” O “¿Cuándo vence esta leche?”, Y luego pedir voluntarios para que respondan. Pero las imágenes a menudo están mal definidas, mal enfocadas o carecen de la información necesaria para responder la pregunta. Después de todo, los fotógrafos no pueden ver.

Los sistemas de visión artificial podrían ayudar, por ejemplo, filtrando las imágenes inadecuadas y sugiriendo que el fotógrafo intente de nuevo. Pero las máquinas no pueden hacer esto todavía, en parte porque no existe un conjunto significativo de datos de imágenes del mundo real que puedan usarse para capacitarlos.

 Distribution of the first six words for all questions in VizWiz. The innermost ring represents the first word and each subsequent ring represents a subsequent word. The arc size is proportional to the number of questions with that initial word/phrase.
Distribution of the first six words for all questions in VizWiz. The innermost ring represents the first word and each subsequent ring represents a subsequent word. The arc size is proportional to the number of questions with that initial word/phrase.

 

Entra Danna Gurari en la Universidad de Texas en Austin y algunos colegas, que hoy publican una base de datos de 31,000 imágenes junto con preguntas y respuestas sobre ellas. Al mismo tiempo, Gurari y compañía crearon un desafío para la comunidad de la visión artificial: usar su conjunto de datos para entrenar máquinas como asistentes efectivos para este tipo de problemas de la vida real.

El conjunto de datos proviene de una aplicación existente llamada VizWiz, desarrollada por Jeff Bigham y sus colegas de la Universidad Carnegie Mellon en Pittsburgh para ayudar a las personas invidentes. Bigham también es miembro de este equipo de investigación.

Al usar la aplicación, una persona invidente puede tomar una fotografía, grabar una pregunta verbalmente y luego enviar ambas a un equipo de voluntarios que responden lo mejor que pueden.

Pero la aplicación tiene una serie de deficiencias. Los voluntarios no siempre están disponibles, por ejemplo, y las imágenes no siempre hacen posible una respuesta.

En su esfuerzo por encontrar una mejor manera, Gurari y compañía comenzaron analizando más de 70,000 fotos recopiladas por VizWiz de usuarios que habían aceptado compartirlas. El equipo eliminó todas las fotos que contenían información personal, como información de tarjetas de crédito, direcciones o desnudos. Eso dejó unas 31,000 imágenes y las grabaciones asociadas con ellas.

Luego, el equipo presentó las imágenes y las preguntas a los trabajadores del servicio de crowdsourcing Mechanical Turk de Amazon, pidiéndoles a cada trabajador que respondiera con una breve oración. El equipo reunió 10 respuestas para cada imagen para verificar la consistencia.

Estas 31,000 imágenes, preguntas y respuestas conforman la nueva base de datos de VizWiz, que Gurari y compañía están poniendo a disposición del público.

El equipo también ha llevado a cabo un análisis preliminar de los datos, que proporciona información única sobre los desafíos que enfrenta la visión artificial al proporcionar este tipo de ayuda.

Las preguntas son a veces simples, pero de ninguna manera siempre. Muchas preguntas se pueden resumir como “¿Qué es esto?” Sin embargo, solo el 2 por ciento solicita una respuesta de sí o no, y menos del 2 por ciento se puede responder con un número.

Y hay otras características inesperadas. Resulta que aunque la mayoría de las preguntas comienzan con la palabra “qué”, casi una cuarta parte comienza con una palabra mucho más inusual. Esto es casi seguramente el resultado del proceso de grabación recortando el comienzo de la pregunta.

Pero las respuestas a menudo son aún posibles. Haga preguntas como “Vender o utilizar por fecha de esta caja de cartón de leche” o “¿El horno está configurado para agradecer?”. Ambos son fáciles de responder si la imagen proporciona la información correcta.

El equipo también analizó las imágenes. Más de un cuarto no son aptos para obtener una respuesta, porque no son claros o no contienen la información relevante. Ser capaz de detectar estos de forma rápida y precisa sería un buen comienzo para un algoritmo de visión artificial.

Y ahí está el desafío para la comunidad de visión artificial. “Presentamos este conjunto de datos para alentar a una comunidad más grande a desarrollar algoritmos más generalizados que puedan ayudar a las personas invidentes”, dicen Gurari y compañía. “Mejorar los algoritmos en VizWiz puede simultáneamente educar a más personas sobre las necesidades tecnológicas de las personas invidentes, al tiempo que ofrece una oportunidad nueva y emocionante para que los investigadores desarrollen tecnologías de asistencia que eliminen las barreras de accesibilidad para las personas invidentes”.

Sin duda, un objetivo digno.

Ref: arxiv.org/abs/1802.08218 : Gran desafío de VizWiz: respuesta a preguntas visuales de personas invidentes.

Fuente: technologyreview.com