Psykinetic, demuestra el empoderamiento de la tecnología en el campo de la accesibilidad

Psykinetic Launches, Demonstrates Empowering Accessibility Technology

Por  

La compañía de tecnología para personas con discapacidad Psykinetic   se lanzó en Sydney hoy, dando una idea del futuro de la tecnología de accesibilidad.

La compañía lanzó tres productos emblemáticos diseñados para mejorar las vidas de las personas con discapacidades físicas de alto nivel. Los tres utilizan tecnología de seguimiento ocular para interacciones sin contacto.

Y aunque el hardware de seguimiento ocular existe desde hace un tiempo, el producto Psykinetic demostró una forma más sólida y efectiva para que los usuarios interactúen con la tecnología. La compañía también está trabajando en la integración de interfaces controladas por el cerebro en sus productos.

El primer producto estrella demostrado – ‘Frontier’ – es “el teclado de comunicación más rápido controlado por ojo del mundo”, según la compañía. Los usuarios pueden operar un teclado QWERTY completo para operaciones de texto a voz en lo que la compañía dice que nunca antes se ha visto una velocidad. El software funciona en computadoras personales y utiliza el hardware de seguimiento ocular existente.

La tecnología requiere práctica, pero los usuarios avanzados han grabado velocidades de hasta 44 palabras por minuto. Para poner esto en perspectiva, el dispositivo operado por interruptor utilizado por el fallecido Stephen Hawking operaba entre tres y cinco palabras por minuto.

“Se necesita práctica. Pero es una de esas cosas que crece y se adapta a usted en diferentes niveles “, dijo el Dr. Jordan Nguyen, fundador y CEO de Psykinetic.

Nguyen dijo que los algoritmos de back-end permiten que el software se adapte al comportamiento de los usuarios y a los movimientos oculares. Incluso los usuarios sin entrenamiento estaban registrando las tasas de palabras por minuto en los años veinte, según Nguyen.

“Todos tienen la capacidad de contribuir a la sociedad, mejorar las vidas de los demás y, en última instancia, trabajar por un mundo mejor para las generaciones futuras”, dijo el CEO de Psykinetic.

“Estamos lanzando los puntos de partida de un poderoso movimiento que abrirá un mundo de posibilidades y capacitará a las personas con más herramientas tecnológicas para ayudar a crear ese cambio”.

El campeón Psykinetic, Riley Saban, y el CEO de Psykinetic, Dr. Jordan Nguyen.
El campeón Psykinetic, Riley Saban, y el CEO de Psykinetic, Dr. Jordan Nguyen.

Riley Saban, un estudiante de noveno año que nació con parálisis cerebral cerebral demostró la tecnología en el lanzamiento, describiéndolo como un “cambio de juego” para personas con discapacidades.

“Sin las herramientas adecuadas, no podría ni podría estar haciendo lo que soy hoy”, dijo Saban. “Espero trabajar con el equipo de Psykinetic para apoyarlos en el desarrollo de productos más sorprendentes para las personas necesitadas”.

Psykinetic también reveló y demostró ‘Atmosphere’, un dispositivo musical controlado por Eye Tracking, y ‘Stargaze’, la plataforma digital que ofrece y lanza aplicaciones Psykinetic.

Psykinetic es un proveedor de servicios de National Disability Insurance Scheme (NDIS) y Nguyen dijo que espera que la tecnología esté cubierta por el plan.

“Como cualquier versión principal [el NDIS] tenía sus propios problemas iniciales. Pero creo que Australia está haciendo un movimiento masivo para mostrarle al mundo cómo se hace. Cómo podemos trabajar para crear una sociedad más inclusiva, y creo que el NDIS es crucial para eso “.

Fuente: which-50.com

Silla de ruedas AI autónoma para ayudar a personas con discapacidad

El equipo de expertos de robots del Imperial College de Londres ha ganado $ 50,000 para desarrollar aún más una silla de ruedas artificialmente inteligente controlada por los ojos.

Silla de Ruedas
Crédito: Fotos de ThinkStock

 

El equipo de investigación del Imperial College London ganó $ 50k. El premio fue anunciado como parte del Mobility Unlimited Challenge Challenge Award , que es financiado por Toyota Mobility Foundation y administrado por el Nesta ‘s Challenge Prize Center .

Este premio de investigación ayudará a desarrollar una silla de ruedas autodirigida para personas paralizadas que puedan guiar con su mirada. También esperan hacer que esta silla de ruedas la ponga a disposición de las personas a bajo costo.

El director del proyecto, el Dr. Aldo Faisal de los Departamentos de Computación y Bioingeniería de Imperial, dijo: “Nuestra silla de ruedas ayudará a las personas a navegar por sus hogares y el mundo exterior. Si el usuario puede mover sus ojos para mirar el mundo, puede operar la silla de ruedas que lee las intenciones de sus ojos “.

El poder de la AI se está volviendo accesible y asequible para la gente común. Nosotros en Imperial estamos aprovechando su poder para mejorar vidas.
– Dr. Aldo Faisal

La silla de ruedas inteligente artificial autodidacta combina las tecnologías existentes disponibles, como el sistema de seguimiento ocular y las computadoras portátiles, con la silla de ruedas eléctrica.

La silla utiliza un sensor de Detección y rango de luz ( LiDAR ). Este sensor se basa en el infrarrojo, que se usa con mayor frecuencia en los autos sin conductor para generar un mapa de 360 ​​grados del entorno del usuario.

The self-driving artificially intelligent wheelchair

 

El rastreador ocular en silla de ruedas informa los momentos oculares a la AI y el programa AI define a dónde debe moverse la silla de ruedas y la guía para evitar obstáculos.

La silla de ruedas artificialmente inteligente autodidacta

Los componentes AI y LiDAR han hecho que sea más fácil navegar en la silla de ruedas evitando obstáculos sin más respuesta humana.

La silla de ruedas artificialmente inteligente autodidacta

 

La tecnología ayudará a las personas gravemente discapacitadas a restablecer su independencia a bajo costo.
– Noyan Songur y Mahendran Subramanian

El Dr. Faisal dijo: “Nuestra silla de ruedas es un gran ejemplo de innovación. También demuestra que el poder de la AI se está volviendo accesible y asequible para las personas comunes. Nosotros en Imperial estamos aprovechando su poder para mejorar vidas “.

Los estudiantes de posgrado del equipo de Aldo, Noyan Songur y Mahendran Subramanian dijeron: “Estos sistemas inteligentes de inteligencia artificial pueden aprender y mejorar de forma específica para el usuario a lo largo del tiempo, por lo que podemos trabajar con los pacientes desde el primer día para identificar sus necesidades y expectativas. La tecnología ayudará a las personas gravemente discapacitadas a restablecer su independencia a bajo costo “.

Fuente: techexplorist.com

“Prosthetic hands” se vuelven inteligentes, y son sensibles al tacto

Por 

Las prótesis se transforman en extensiones controladas por la mente del cuerpo humano que permiten a los usuarios sentir lo que están tocando.

Las prótesis se transforman en extensiones controladas por la mente del cuerpo humano que permiten a los usuarios sentir lo que están tocando.

Garrett Anderson casi le rompe la mano a su abuela mientras trataba de darle un suave apretón.

El sargento retirado del ejército de EE. UU., Que había perdido su brazo derecho debajo del codo en 2005 mientras patrullaba en Irak, no pudo determinar cuánta presión aplicaba con su mano protésica. Es un problema común.

Cuando sostenemos un bolígrafo, estrechamos una mano o tomamos una cáscara de huevo, instintivamente sabemos cuánta presión ejercer sin aplastar el objeto. Tal retroalimentación sensorial no es posible con la mayoría de las manos protésicas, que permiten a los amputados sujetar un objeto, pero no pueden decirles cuánta presión están usando.

Anderson, de 41 años, ha estado haciendo su parte para cambiar eso. Durante los últimos tres años, ha estado probando prototipos que lo hacen sentir nuevamente.

“Puedo sentir tocar la mano de mi hija o tocar la mano de mi esposa, o recoger una cáscara de huevo sin aplastarla”, dice Anderson sobre su trabajo con Psyonic , una nueva empresa que opera en el Parque de Investigación de la Universidad de Illinois, en Urbana-Champaign. . Psyonic espera proporcionar prótesis comerciales con detección de presión el próximo año, y otras con retroalimentación sensorial en algún momento después de eso.

La tecnología está en el umbral de convertir lo impensable en realidad. Las prótesis incómodas y torpes se transforman en extensiones controladas por la mente del cuerpo humano que les dan a los usuarios un sentido del tacto y un mayor rango de movimiento.

Junto con la retroalimentación sensorial, las prótesis de goma y silicona de Psyonic utilizan el aprendizaje automático para brindar a sus usuarios un control intuitivo. La extremidad protésica modular de la Universidad Johns Hopkinspromete ofrecer una fuerza “humana”, destreza y sensación controladas por el pensamiento. Actualmente se encuentra en la fase de investigación. Y la compañía islandesa Ossur está llevando a cabo ensayos preclínicos sobre prótesis de piernas y pies controladas por la mente. Estos y otros avances podrían hacer que sea más fácil para los amputados realizar los tipos de tareas que la mayoría de las personas dan por hecho.

Señales de mano

Al igual que muchas prótesis ya en el mercado, la mano Psyonic de Anderson es lo que se llama una prótesis mioeléctrica, lo que significa que se controla utilizando señales eléctricas generadas por los músculos restantes de su brazo. Los músculos en su antebrazo le dicen a sus dedos que se flexionen y se extiendan, por ejemplo.

No lo llamo una prótesis. De hecho, lo llamo mi brazo.

Jodie O’Connell-Ponkos

Cuando Anderson piensa en mover la mano, los electrodos en la mano protésica miden las señales eléctricas de su antebrazo, mientras que el software de reconocimiento de patrones detecta si quiere abrir o cerrar la mano, juntar los dedos o cerrar un puño, por ejemplo. En efecto, sus pensamientos controlan su mano artificial.

Pero es la retroalimentación sensorial de la prótesis, gracias a los sensores de presión en las yemas de los dedos, lo que le permite a Anderson estrechar la mano sin romper huesos, sostener una delicada cáscara de huevo con los ojos vendados o clavar un clavo en una tabla. Cuando toca un objeto, esos sensores le permiten sentir vibraciones, hormigueo o presión.

Control del pensamiento

Sin algo así como el software de reconocimiento de patrones, una prótesis mioeléctrica puede ser difícil de controlar.

Eso fue cierto para Jodie O’Connell-Ponkos, una entrenadora de caballos en Ghent, Nueva York, que había perdido la mano en una picadora de carne industrial cuando tenía 16 años. A menudo luchó para que su prótesis funcionara porque era difícil para alinear los sensores a los músculos de sus brazos.

“El brazo casi me hizo sentir como un fracaso a veces”, dice O’Connell-Ponkos, de 49 años. “Era más incómodo de llevar que no usar, así que opté por alejarme de él”.

Más de 20 años después, en 2015, recibió una mano protésica de la empresa alemana Ottobock que había sido equipada con un controlador de Coapt, en Chicago.

De manera similar a la prótesis de Psyonic, el sistema de Coapt decodifica las señales eléctricas de los músculos restantes de un amputado. Igualmente importante, también utiliza un algoritmo de reconocimiento de patrones para traducir la intención en movimiento.

O’Connell-Ponkos ahora usa su mano artificial para todo, desde atarse los zapatos y ponerse el pelo en una cola de caballo para cortar leña y entrenar caballos. “No hay mucho que no haya resuelto cómo hacer”, dice ella. “No lo llamo una prótesis. De hecho, lo llamo mi brazo”.

La tecnología de Coapt ha estado en el mercado desde 2012 y es compatible con una variedad de prótesis de ocho compañías.

Tales avances tecnológicos no están limitados a la parte superior del cuerpo.

Es realmente esa experiencia humana que estamos comenzando a restaurar.

Dustin Tyler

Ossur , con sede en Reykjavik, Islandia, comenzó un esfuerzo para desarrollar prótesis de pierna y pie controladas por el pensamiento. Para que funcionen, los cirujanos implantarían un pequeño sensor mioeléctrico en los músculos restantes de las piernas de los amputados. El sensor recibe los impulsos eléctricos subconscientes del cerebro y, con la ayuda de un procesador por separado, redirige las señales a la prótesis. El objetivo: permitir que los amputados se muevan y caminen sin pensarlo conscientemente.

“Usted está devolviendo lo que llamamos el ‘control voluntario’ para el paciente”, dice Kim DeRoy, vicepresidente ejecutivo de investigación y desarrollo en Ossur. “Y eso es algo que, para muchos pacientes, falta”.

Mirando hacia el futuro

El futuro de las prótesis es todo acerca de los implantes.

Específicamente, los investigadores están explorando el uso de implantes pequeños con forma de píldora insertados profundamente en un músculo, lo que permite un control más preciso y preciso.

Pero ese no es su único beneficio potencial si la investigación de Dustin Tyler se desarrolla. El profesor de ingeniería biomédica de la Universidad Case Western Reserve está desarrollando una técnica que podría engañar al cerebro para que piense que las sensaciones provienen de la mano faltante de carne y hueso.

El esfuerzo consiste en colocar un manguito de electrodos alrededor de los nervios restantes de la persona amputada y conectar esos manguitos a un pequeño dispositivo implantado en el pecho que, a su vez, activa esos nervios. Una conexión Bluetooth vinculará el implante de tórax con el brazo protésico, de modo que cuando el brazo toque algo, active los nervios. Tyler cree que los implantes podrían obtener la aprobación de la FDA dentro de los próximos 10 años.

“Es realmente esa experiencia humana que estamos comenzando a restaurar”, dice. “No creo que debamos subestimar el valor de eso”.

Video Mobile app helps amputee better use prosthetic

Fuente: cnet.com

 

Algunos enlaces útiles y recientes sobre accesibilidad y diseño inclusivo

Por 

 

Este mes he tenido la suerte de co-presentar sobre Diseño Universal para el Aprendizaje con Kirsten Behling, Erin DeSilva, Lance Eaton, Kelsey Hall, Marisha Marks, Andrea Milligan, Adam Nemeroff y Marcie Saboya en el NERCOMP (programa informático Regional del Noreste) reunión anual.

Los recursos están disponibles aquí y, en particular, quiero resaltar la lista de recursos en línea, así como un puñado de perfiles de aprendizaje hipotéticos bien desarrollados que pueden ayudar a que las discusiones sobre el diseño universal y la accesibilidad sean más concretas.

Aquí hay algunos otros enlaces sobre accesibilidad y diseño inclusivo que han surgido recientemente en mis diversos feeds:

 

  • Inclusive Components es un proyecto realmente genial que apunta a mejorar la inclusión en el diseño de la interfaz web . Hay mucho sentido común en las diferentes piezas, pero me gusta este fragmento de una publicación reciente en tablas : cuando el marcado de tabla contiene contenido no tabular, se confunde con las expectativas de los usuarios ciegos. No es un diseño de página para ellos; es una tabla de datos que no tiene sentido. Si son videntes o deficientes visuales y ejecutan un lector de pantalla son ambas cosas , lo cual es posiblemente aún más confuso.

 

  • Esta publicación de blindblonde, un académico que es legalmente ciego, tiene muchísimos consejos para hacer que los carteles y las presentaciones sean más accesibles visualmente : la mayoría de las veces, las personas ponen una tonelada de texto en sus carteles y usan una fuente demasiado pequeña para que yo los use. léalo sin bloquear el cartel completo de todos los demás. En última instancia, esto significa que tengo que pedirle al presentador que me brinde una descripción general rápida de su trabajo, y que las personas tengan diferentes habilidades para debatir su trabajo de una manera concisa (y es cierto que tal vez quiera hacer preguntas o entablar una discusión, también). Sin embargo, si estoy en una sesión que tiene muchos carteles que quiero ver, no tendré suficiente tiempo para conversar con todos.

¿Tiene un enlace reciente favorito sobre accesibilidad, inclusión o diseño universal? Háganos saber en los comentarios!

Fuente: chronicle.com/blogs/profhacker

El sistema informático transcribe palabras que los usuarios “hablan en silencio”

Arnav Kapur, un investigador en el grupo de Interfaces de fluidos en el MIT Media Lab, demuestra el proyecto AlterEgo.
Arnav Kapur, un investigador en el grupo de Interfaces de fluidos en el MIT Media Lab, demuestra el proyecto AlterEgo. Imagen: Lorrie Lejeune / MIT

 

Larry Hardesty | Oficina de Noticias del MIT

Los electrodos en la cara y la mandíbula captan señales neuromusculares indetectables desencadenadas por verbalizaciones internas.

Los investigadores del MIT han desarrollado una interfaz de computadora que puede transcribir palabras que el usuario verbaliza internamente, pero que en realidad no hablan en voz alta.

El sistema consiste en un dispositivo portátil y un sistema informático asociado. Los electrodos en el dispositivo captan señales neuromusculares en la mandíbula y en la cara que se desencadenan mediante verbalizaciones internas, diciendo palabras “en tu cabeza”, pero son indetectables para el ojo humano. Las señales se alimentan a un sistema de aprendizaje automático que ha sido entrenado para correlacionar señales particulares con palabras particulares.

El dispositivo también incluye un par de auriculares de conducción ósea, que transmiten las vibraciones a través de los huesos de la cara hacia el oído interno. Debido a que no obstruyen el canal auditivo, los auriculares permiten que el sistema transmita información al usuario sin interrumpir la conversación ni interferir con la experiencia auditiva del usuario.

El dispositivo es, por lo tanto, parte de un completo sistema de computación silenciosa que permite al usuario plantear y recibir indetectablemente respuestas a problemas de computación difíciles. En uno de los experimentos de los investigadores, por ejemplo, los sujetos usaron el sistema para informar silenciosamente los movimientos de los oponentes en un juego de ajedrez y de forma silenciosa recibir respuestas recomendadas por la computadora.

“La motivación para esto fue construir un dispositivo IA, un dispositivo de aumento de inteligencia”, dice Arnav Kapur, un estudiante graduado en el MIT Media Lab, quien dirigió el desarrollo del nuevo sistema. “Nuestra idea era: ¿Podríamos tener una plataforma informática que sea más interna, que fusione humanos y máquinas de alguna manera y que se sienta como una extensión interna de nuestra propia cognición?”

“Básicamente no podemos vivir sin nuestros teléfonos celulares, nuestros dispositivos digitales”, dice Pattie Maes, profesora de artes y ciencias de los medios y asesora de tesis de Kapur. “Pero por el momento, el uso de esos dispositivos es muy perturbador. Si quiero buscar algo que sea relevante para una conversación que estoy teniendo, tengo que encontrar mi teléfono y escribir el código de acceso, abrir una aplicación y escribir una palabra clave de búsqueda, y todo requiere que cambie completamente la atención de mi entorno y las personas con las que estoy con el teléfono. Por lo tanto, mis alumnos y yo hemos estado experimentando durante mucho tiempo con nuevos factores de forma y nuevos tipos de experiencia que permiten a las personas aún beneficiarse de todos los maravillosos conocimientos y servicios que estos dispositivos nos brindan, pero hágalo de una manera que nos permita ellos permanecen en el presente “.

Los investigadores describen su dispositivo en un documento que presentaron en la conferencia ACM Intelligent User Interface de la Association for Computing Machinery. Kapur es el primer autor del artículo, Maes es el autor principal, y están acompañados por Shreyas Kapur, estudiante de pregrado en ingeniería eléctrica y ciencias de la computación.

Señales sutiles

La idea de que las verbalizaciones internas tienen correlatos físicos ha existido desde el siglo XIX, y se investigó seriamente en la década de 1950. Uno de los objetivos del movimiento de lectura rápida de la década de 1960 era eliminar la verbalización interna, o “subvocalización”, como se la conoce.

Pero la subvocalización como una interfaz de computadora es en gran parte inexplorada. El primer paso de los investigadores fue determinar qué ubicaciones en la cara son las fuentes de las señales neuromusculares más confiables. Así que llevaron a cabo experimentos en los que se les pidió a los mismos sujetos que subvocalizaran la misma serie de palabras cuatro veces, con un conjunto de 16 electrodos en diferentes localizaciones faciales cada vez.

Los investigadores escribieron el código para analizar los datos resultantes y encontraron que las señales de siete ubicaciones de electrodos particulares eran consistentemente capaces de distinguir las palabras subvocalizadas. En el documento de la conferencia, los investigadores informan un prototipo de una interfaz portátil de voz silenciosa, que se envuelve alrededor de la parte posterior del cuello como un auricular de teléfono y tiene apéndices curvos tipo tentáculo que tocan la cara en siete lugares a ambos lados de la boca y a lo largo de las mandíbulas.

Pero en los experimentos actuales, los investigadores obtienen resultados comparables usando solo cuatro electrodos a lo largo de una mandíbula, lo que debería conducir a un dispositivo portátil menos molesto.

Una vez que seleccionaron las ubicaciones de los electrodos, los investigadores comenzaron a recopilar datos sobre algunas tareas computacionales con vocabularios limitados, unas 20 palabras cada una. Una era la aritmética, en la cual el usuario subvocalizaba grandes problemas de suma o multiplicación; otra era la aplicación de ajedrez, en la cual el usuario informaría movimientos usando el sistema estándar de numeración de ajedrez.

Luego, para cada aplicación, usaron una red neuronal para encontrar correlaciones entre señales neuromusculares particulares y palabras particulares. Al igual que la mayoría de las redes neuronales, la que utilizaron los investigadores está dispuesta en capas de nodos de procesamiento simples, cada uno de los cuales está conectado a varios nodos en las capas superiores e inferiores. Los datos se introducen en la capa inferior, cuyos nodos la procesan y pasan a la siguiente capa, cuyos nodos la procesan y pasan a la siguiente capa, y así sucesivamente. El rendimiento de los rendimientos finales de la capa es el resultado de alguna tarea de clasificación.

La configuración básica del sistema de los investigadores incluye una red neuronal entrenada para identificar palabras subvocalizadas a partir de señales neuromusculares, pero puede personalizarse para un usuario particular a través de un proceso que reacondiciona solo las dos últimas capas.

Cuestiones prácticas

Utilizando la interfaz prototipo portátil, los investigadores realizaron un estudio de usabilidad en el que 10 sujetos pasaron unos 15 minutos cada uno personalizando la aplicación aritmética a su propia neurofisiología, y luego pasaron otros 90 minutos usándolo para ejecutar cálculos. En ese estudio, el sistema tenía una precisión de transcripción promedio de aproximadamente el 92 por ciento.

Pero, Kapur dice, el rendimiento del sistema debería mejorar con más datos de capacitación, que podrían recopilarse durante su uso ordinario. Aunque no ha cruzado los números, estima que el sistema mejor entrenado que usa para las demostraciones tiene una tasa de precisión más alta que la informada en el estudio de usabilidad.

En el trabajo en curso, los investigadores están recopilando una gran cantidad de datos en conversaciones más elaboradas, con la esperanza de crear aplicaciones con vocabularios mucho más expansivos. “Estamos en el medio de recopilar datos, y los resultados se ven bien”, dice Kapur. “Creo que lograremos una conversación completa algún día”.

“Creo que están rebajando un poco lo que creo que es un potencial real para el trabajo”, dice Thad Starner, profesor de la Facultad de informática de Georgia Tech. “Como, digamos, controlar los aviones en la pista del aeropuerto de Hartsfield aquí en Atlanta. Tienes ruido de avión a tu alrededor, estás usando estas grandes protecciones para los oídos: ¿no sería genial comunicarse con la voz en un entorno donde normalmente no podrías? Puede imaginar todas estas situaciones en las que tiene un entorno de alto ruido, como la cabina de vuelo de un portaaviones, o incluso lugares con mucha maquinaria, como una planta de energía o una imprenta. Este es un sistema que tendría sentido, especialmente porque a menudo en este tipo de situaciones las personas ya están usando equipo de protección. Por ejemplo, si eres un piloto de combate,

“La otra cosa donde esto es extremadamente útil es operaciones especiales”, agrega Starner. “Hay muchos lugares en los que no es un entorno ruidoso, sino un entorno silencioso. Mucho tiempo, las personas con operaciones especiales tienen gestos con las manos, pero no siempre se pueden ver. ¿No sería genial tener un discurso silencioso para la comunicación entre estas personas? El último es personas con discapacidades en las que no pueden vocalizar normalmente. Por ejemplo, Roger Ebert no tenía la capacidad de hablar más porque perdió la mandíbula debido al cáncer. ¿Podría hacer este tipo de discurso silencioso y luego tener un sintetizador que diga las palabras?

Fuente: news.mit.edu