Crean una gorra que ayuda a las personas con parálisis a mover aparatos con la mente

Christian Peñaloza crea una gorra que ayuda a las personas con parálisis a mover aparatos con la mente

Christian Peñaloza es uno de los científicos menores de 35 años más innovadores del mundo por crear un sistema de ayuda a las personas con parálisis a mover aparatos con la mente.

No toda su vida destacó en las ciencias. “Recuerdo que en la primaria no era muy buen estudiante, incluso estuve a punto de repetir un año escolar”, dice.

Sin embargo, una vez en Tijuana su hermana lo motivó a esforzarse. Christian empezó a destacar en matemáticas, física y química, pero no se le daba el inglés.

CUESTIÓN DE TIEMPO

Aunque Christian destacaba en ciencias, no hablar inglés casi le cierra las puertas. Cuando entró a la preparatoria, su papá le dijo que podía hacer el esfuerzo de pagarle una escuela en Estados Unidos.

“Para mi papá era un sueño que alguno de sus hijos estudiara en Estados Unidos. Mi abuelo fue campesino en Tultepec, Estado de México y después fue indocumentado en Estados Unidos”, recuerda.

Hizo los exámenes de admisión en los que debía demostrar que sabía matemáticas e inglés. “El examen de matemáticas fue muy fácil pero el de inglés no lo pude pasar”.

El director de la preparatoria para la que había aplicado se sorprendió de la capacidad de Christian para las matemáticas y por otro lado, de su deficiencia en inglés.

Miró a Christian y le preguntó en inglés si entendía cuando le hablaba. Christian movió la cabeza afirmativamente.

¿Qué es lo que necesitas para pasar el examen de inglés?, le preguntó. Christian sólo supo responder “time”. El director dejó que Christian repitiera el examen sin cronómetro y logró aprobar.

Desde entonces, todas sus mañanas consistían en esperar formado en el cruce fronterizo de San Isidro para ir a una escuela que, por ser religiosa, casi no tenía latinos en sus aulas.

LOS ROBOTS QUE AYUDAN A LOS HUMANOS

Después de la preparatoria, Christian estudió ingeniería en sistemas en la Universidad de San Diego y para su proyecto final diseñó un robot que no dependía de las órdenes de humanos para funcionar porque contaba con inteligencia propia.

Recordó que a los 15 años su hermana le regaló un robot de juguete que se manejaba a control remoto. Christian imaginó que algún día, los robots ayudarían a las personas en las tareas de la casa o a cuidar enfermos.

Después estudió la maestría en Osaka, Japón, donde estudió neurociencias y robótica, persiguiendo la visión que tenía desde los 15 años sobre los robots que ayudan a las personas.

Pero fue hasta el doctorado, también en Japón, que pudo poner su visión en práctica. Ahí descubrió cómo los pacientes con enfermedades neurodegenerativas pueden mover objetos con la mente, aprovechando los avances de la tecnología.

Se dio cuenta de que esa tecnología agota mentalmente a los pacientes porque tienen que estar muy concentrados en cómo dar órdenes a una máquina para que sea controlada por ellos.

Christian quiso resolver el problema del agotamiento mental y diseñó un sistema que memoriza las antiguas órdenes del paciente para que éste ya no tenga que volver a pensarlas la próxima vez.

El sistema incluye una gorra con sensores para el paciente, que detecta las señales del cerebro; una computadora que interpreta las señales y ejecuta órdenes; y sensores en los aparatos que el paciente necesita controlar.

CONTROLAR APARATOS CON LA MENTE

El sistema que Christian diseñó ayuda a que las personas con parálisis motrices puedan hacer tareas sencillas como encender la luz o conectar la calefacción en sus casas usando la mente.

De acuerdo con datos del Inegi, casi 6 millones de mexicanos tienen algún tipo de discapacidad. La mitad tienen alguna discapacidad para caminar o moverse, siendo la más común en el país.

Muchos pacientes rechazan este tipo de tecnología por el cansancio que les provoca, así que Christian “entrenó” al dispositivo para memorizar las acciones del usuario y la próxima vez que requiere algo, se puede adelantar para que la persona no tenga que pensarlas.

El desarrollo de este tipo de interfaces comenzó con los primeros sistemas que captaban la actividad cerebral, a principios del siglo XX. Sin embargo, hasta la década de los 70 se comenzó a investigar el uso de las ondas cerebrales para comunicarse con dispositivos y las primeras prótesis neuronales se desarrollaron en 1990 para pacientes con problemas de audición, vista o movilidad.

Una interfaz cerebro-máquina sirve para comunicar a una persona con una máquina sin que requiera ningún tipo de movimiento de articulaciones. Funciona a partir de una señal cerebral del usuario hacia un dispositivo que se encarga de ejecutar una determinada acción. Después, esos estímulos cerebrales deben “traducirse” en comandos comprensibles para la máquina.

Por ejemplo, cuando el usuario está cansado y quiere apagar la luz, el sistema detecta ese estado cognitivo y apaga la luz. Además guarda la acción para que la próxima vez lo haga automáticamente; y si el sistema se equivoca, puede aprender de sus errores.

Este avance convirtió a Christian en uno de los ganadores del premio “Innovadores Menores de 35 años” en 2016, otorgado por el Instituto Tecnológico de Massachusetts, una de las mejores universidades del mundo. En esa misma ceremonia se le reconoció como el “Innovador del año 2016”.

DOS CAMINOS A ELEGIR

En 2008 tuvo la oportunidad de trabajar por un tiempo en Canadá para una compañía de ingeniería.

Al final le ofrecieron quedarse a trabajar pero ese mismo día le hablaron de una compañía en Japón para hacer un internado en ese país.

No sabía qué elegir. Por un lado tenía el camino seguro que era aceptar el empleo en Canadá y por otro, ir a un internado de cuatro meses en Japón sin la certeza de quedarse a trabajar allá.

Sus amigos le dijeron que se fuera por lo seguro, que aceptara el empleo en Canadá. Christian recordó algo que su papá siempre le decía. Que si él quería dejar todo atrás como cuando se fue a estudiar a Estados Unidos, siguiera a su corazón y él lo apoyaría.

EL PROYECTO EN MÉXICO

Christian dejó todo atrás, como cuando se formaba durante horas para cruzar la frontera, esta vez para ir a Asia y superar nuevas fronteras: la del idioma y la cultura japonesa.

Después de un tiempo quiso especializarse en robótica e inteligencia artificial, pero no tenía manera de quedarse a estudiar en Japón porque el internado estaba por terminar.

Recordó que dos años antes había aplicado para una beca de maestría otorgada por la embajada de Japón en México. Sin embargo, para que la embajada japonesa revisara su aplicación tenía que pasar por el filtro de la Secretaría de Relaciones Exteriores (SRE).

La SRE rechazó la aplicación de Christian. Esta vez, dos años después del rechazo, Christian estaba en una mejor situación financiera gracias a los ahorros que consiguió trabajando y al apoyo de sus padres. Pensó que con eso podía pagarse la maestría.

Sin embargo, en el último semestre de la maestría sus ahorros comenzaron a agotarse y sus padres no pudieron apoyarlo más por problemas económicos.

Christian pidió empleo a un restaurante de comida japonesa. Empezó trabajando limpiando los sartenes y posteriormente le enseñaron a cocinar.

“Estar parado durante horas detrás de un mostrador con un sartén caliente, me enseñó a valorar el trabajo que personas sin otra opción tienen que enfrentar día a día”, recuerda.

Un profesor lo encontró dormido a media clase y Christian confesó que había encontrado un trabajo para pagarse la maestría.

El profesor le dijo que dejara de trabajar y que él lo contrataría como su asistente de laboratorio. Así, Christian pudo terminar con éxito su maestría y después continuó con el doctorado en la misma universidad, esta vez con una beca y sin pasar por el filtro de la SRE.

Christian abrió una empresa en Tijuana llamada Mirai Innovation. Piensa que se puede utilizar todo el potencial de los ingenieros mexicanos para realizar proyectos que impacten positivamente a los mexicanos.

En México están perfeccionando la tecnología que Christian desarrolló inicialmente en Asia. Allá, la validación de su proyecto fue muy costosa y difícil de usar, por lo que están buscando una forma más barata para traerlo al país.

Esta tecnología también se está usando para detectar cuando un conductor se queda dormido y evitar que sufra un accidente. De inmediato emite una alarma y envía una señal para disminuir la velocidad. También la pueden usar trabajadores de maquiladoras para evitar accidentes en el trabajo.

En México cada hora se registran casi 50 accidentes laborales, de acuerdo con las estadísticas del Instituto Mexicano del Seguro Social.

“Mi visión es poder utilizar el potencial de los ingenieros mexicanos para realizar proyectos en salud, educación, seguridad, etc. que impacten a millones de personas”, dice Christian.

Fuente:www.elsiglodedurango.com.mx

Fuente: colimanoticias.com

El aprendizaje automático es el nuevo gran aliado de las personas con discapacidad

El software capaz de entender imágenes, sonidos y textos permite crear herramientas que acercan los beneficios de la tecnología a la gente con problemas auditivos y cognitivos como el autismo.

Por Tom Simonite | traducido por Teresa Woods

Las reglas de la Comisión Federal de Comunicaciones de Estados Unidos (FCC, por sus siglas en inglés) obligan a que los canales de televisión ofrezcan subtítulos de los diálogos, los efectos de sonido y las reacciones del público como las risas para los espectadores con problemas de audición. Aunque YouTube no está obligada a tal requisito, ha empezado a cumplirlo gracias a la tecnología de aprendizaje automático de Google.

Desde 2009 YouTube ha empleado software de reconocimiento del habla para generar subtítulos automáticamente, los cuales se usan 15 millones de veces cada día. Ahora acaba de lanzar unos algoritmos que identifican aplausos, risas y música y los señalas dentro de los subtítulos. Y la lista de elementos podría aumentar, ya que el software también puede identificar sonidos como suspiros, ladridos y golpes. 

La empresa afirma que las pruebas indican que la prestación mejora significativamente la experiencia de los usuarios con problemas de audición (y de cualquiera que necesite mantener el volumen bajo). El responsable de producto de YouTube Liat Kaver, que es sordo, afirma: “Para las personas como yo, que necesitamos adaptaciones en algunas situaciones, el aprendizaje automático nos ofrece la misma independencia que tiene el resto de la gente”.

De hecho, el proyecto de YouTube no es el único que intenta generar nuevas herramientas de accesibilidad mediante la potencia cada vez mayor y el carácter práctico del aprendizaje automático. La industria de la computación mejorado la capacidad de interpretar imágenes, textos o sonidos debido a los posibles beneficios en áreas como la publicidad, las búsquedas y la computación en la nube. Pero el software capaz de entender el mundo tiene aplicaciones que van mucho más allá de eso.

YouTube ahora describe automáticamente algunos sonidos en sus subtítulos.
YouTube ahora describe automáticamente algunos sonidos en sus subtítulos. Crédito: Cortesía de YouTube.

El año pasado, Facebook lanzó una prestación que utiliza los avances de la empresa en reconocimiento de imágenes para generar descripciones de las fotos que publican los amigos de un usuario, por ejemplo. Y unos investigadores de IBM están empleando software de procesamiento del lenguaje desarrollado bajo el proyecto Watson para elaborar una herramienta llamada Content Clarifier (Aclarador de contenidos) para ayudar a la gente con discapacidades cognitivas o mentales como el autismo y la demencia. Puede reemplazar giros lingüísticos como “un resfriado de caballo” con términos más literales y limpiar o dividir frases más largas con múltiples cláusulas y lenguaje indirecto.

La Universidad de Massachusetts en Boston (EEUU) está ayudando a probar este sistema en personas con problemas de lectura o discapacidades cognitivas. El investigador de IBM Will Scott, que colabora en el proyecto, dice que la empresa está hablando con una organización que ayuda a alumnos de secundaria con autismo a realizar la transición a la vida universitaria. El objetivo es probar el sistema como estrategia para ayudarles a entender los documentos administrativos y educativos. Scott detalla: “Antes no existían la potencia computacional ni los algoritmos y servicios basados en la nube como Watson para ejecutar este tipo de cosas”.

La investigadora de la Universidad de Lovaina (Bélgica) Ineke Schuurman afirma el desarrollo de nuevas herramientas de accesibilidad es muy importante, ya que puede impedir que algunos colectivos desaventajados se queden rezagados mientras la sociedad aumenta su dependencia de ordenadores y dispositivos móviles.

Schuurman es una de las responsables de un proyecto de la Unión Europea que está probando un software de simplificación  propio para personas con discapacidades intelectuales. La tecnología ha sido integrada en apps que se conectan con Gmail y redes sociales como Facebook. “La gente con discapacidades intelectuales, o cualquier otra, querrá hacer lo mismo que hacen sus amigos y hermanos, utilizar smartphones, tabletas y redes sociales“, señala.

Facebook creó un servicio que describe las imágenes con texto para ayudar a los usuarios con discapacidades visuales. Crédito: Cortesía de Facebook.
Facebook creó un servicio que describe las imágenes con texto para ayudar a los usuarios con discapacidades visuales. Crédito: Cortesía de Facebook.

Austin Lubetkin, que tiene un trastorno del espectro autista, ha colaborado con la organización sin ánimo de lucro Artists with Autism para ayudar a otros pacientes a volverse más independientes. Celebra las investigaciones como la de IBM, pero dice que será un reto asegurarse de que las herramientas funcionan bien. Un algoritmo de aprendizaje automático que recomienda una película que al final resulta decepcionante es una cosa; un error que lleve al usuario a malinterpretar a un amigo es otra.

Aun así, Lubetkin, que trabaja en una start-up mientras cursa una licenciatura universitaria, es optimista y cree que el aprendizaje automático ofrecerá nuevas oportunidades a personas con discapacidades durante los próximos años. Recientemente se basó en una tecnología de reconocimiento de imágenes de la start-up Clarify para prototipar una app de navegación que ofrece indicaciones en forma de puntos de referencia, inspirada por su propia lucha para interpretar la información en formato de texto y diagramas de las apps convencionales mientras conducía. La experta concluye: “Sinceramente, la inteligencia artificial puede nivelar el campo de juego”.

Fuente: technologyreview.es

Unas gafas para astronautas dan voz a personas con discapacidad

Unas gafas de realidad aumentada creadas para astronautas de la Agencia Espacial Europea tienen ahora su aplicación para ayudar a personas con discapacidad, cuyas limitaciones les impiden comunicarse normalmente. Esta tecnología detecta el movimiento de los ojos sobre un teclado virtual y traduce a voz las palabras deletreadas por sus usuarios.

Unas gafas para astronautas dan voz a personas con discapacidad
Un estudio de la ESA ha permitido desarrollar tecnologías que se podrían aplicar en gafas para ayudar a los astronautas durante los paseos espaciales. / ESA/LusoSpace

 

Unas gafas especiales creadas originalmente para la comunicación de los astronautas de la Agencia Espacial Europea (ESA, por sus siglas en inglés) tiene ahora su aplicación en personas con discapacidad para ayudarles en la comunicación.

Se trata de EyeSpeak, una tecnología de realidad aumentada que detecta el movimiento de los ojos a través de un teclado virtual representado en el interior de sus lentes. Las palabras y frases deletreadas por el usuario se traducen mediante el software integrado y se emiten por los altavoces situados en una de las patillas.

Las gafas también permiten al usuario navegar por internet, ver vídeos y acceder al correo electrónico de forma privada, ya que solo él podrá ver lo que se proyecta en el interior de la lente. No obstante, como la información digital aparece superpuesta en la lente, el usuario puede seguir viendo lo que sucede a su alrededor.

“Se trata del primer dispositivo independiente de este tipo; puede utilizarse en cualquier lugar y en cualquier posición física, independientemente de la orientación de la cabeza del usuario”, apunta Teresa Nicolau, especialista de EyeSpeak.

Tecnología para astronautas

Este dispositivo es resultado de un estudio realizado para la ESA sobre herramientas de visualización para astronautas.

“En aquel momento, los astronautas apenas contaban con sistemas rudimentarios para sus paseos espaciales: una lista de comprobación escrita sobre el brazo y comunicación por voz con los controladores de tierra”, relata João Pereira do Carmo, de la ESA.

“Queríamos explorar las numerosas tecnologías que iban saliendo y que permitirían suministrar información importante en tiempo real directamente en su campo de visión”, añade Pereira.

La idea de aplicar este tipo de tecnología para ayudar a las personas con discapacidad proviene de Ivo Vieira, CEO de la compañía portuguesa LusoSpace, encargada de realizar el estudio para la ESA, cuando a su padre se le diagnostica una enfermedad degenerativa.

“Llevamos trabajando en realidad aumentada para astronautas desde 2005, así que cuando diagnosticaron a mi padre, se me ocurrió utilizar esta tecnología para mejorar su vida mediante un nuevo sistema de comunicación móvil”, explica Vieira.

Ivo Vieira prueba un prototipo de las gafas EyeSpeak en su padre. / LusoVu
Ivo Vieira prueba un prototipo de las gafas EyeSpeak en su padre. / LusoVu

Primeros prototipos

La esclerosis lateral amiotrófica, o ELA, y otras enfermedades de las neuronas motoras van debilitando las funciones musculares de los pacientes, llegando a impedirles comunicarse verbalmente. No obstante, el movimiento ocular ofrece una oportunidad de comunicación, ya que no suele verse afectado.

Esto llevó a LusoSpace a producir sus primeras gafas de realidad aumentada en 2008 y, posteriormente, a fundar la empresa LusoVu con el fin de adaptarlas a personas con discapacidad.

Tras los primeros pasos en el desarrollo de la tecnología, en 2014 se lanzó una campaña en Kickstarter y, gracias a ella, en 2015 se produjeron 45 unidades del prototipo de EyeSpeak.

El actual EyeSpeak 1, lanzado al mercado en marzo de 2016, se basa en un par de gafas del modelo Epson BT-200 AR, a las que se han añadido un micrófono, altavoces y una minúscula cámara controlada a través de un microprocesador. Puede emitir una voz estándar sintetizada o la voz del propietario a partir de grabaciones previas.

Fuente

Exoesqueleto chino para personas con discapacidad entrará pronto al mercado

Un robot portable creado en China para ayudar a mover a personas con discapacidad entrará al mercado en un lapso de uno a dos años, informó la empresa diseñadora.

El Fourier X1

El Fourier X1, diseñado por una joven firma tecnológica llamada Fourier Intelligence, fue presentado al público a comienzos de este mes.

Gu Jie, director ejecutivo de la compañía, explicó que la máquina pesa 20 kilos y aplica diseño industrial. Su propósito primordial es devolver la movilidad a personas que han sufrido accidentes cerebrovasculares o lesiones de la médula espinal.

Según el empresario, el exoesqueleto chino será menos costoso que modelos extranjeros como el ReWalk, de Israel, y el japonés Cyberdyne.

El precio del Fourier X1 está calculado en un tercio del de los modelos extranjeros similares, de los cuales el más barato ronda los 600.000 yuanes (87.000 dólares). Algunas piezas más avanzadas pueden llegar a costar un millon de yuanes.

Gu dijo que la compañía está haciendo pruebas y mejorando las funciones del aparato, que permitrá al usuario sentarse, levantarse, caminar y subir escaleras.

La compañía fue fundada en 2015 en el Parque Industrial Zhangjiang de la ciudad de Shanghai (este), y se especializa en el diseño y producción de robots para rehabilitación.

La máquina en cuestión tiene cuatro motores, dos para las caderas y dos para las rodillas. Tiene, además, cuatro baterías, las cuales le dan una autonomía de siete horas, según el fabricante.

China tiene una población de lisiados de 80 millones, muchos de los cuales dependen de otra persona para desplazarse de un lugar a otro. Fuentes del sector estiman que para 2020, el mercado global para los exoesqueletos robóticos excederá los 1.800 millones de dólares.

Fuente

Fourier x1

Diseñan dispositivo auxiliar en movilidad de personas con debilidad visual

diseñan un dispositivo electrónico auxiliar en la movilidad de personas con debilidad visual.

En el Instituto Tecnológico de Colima (Itec) —que forma parte del Tecnológico Nacional de México (Tecnm)—, diseñan un dispositivo electrónico auxiliar en la movilidad de personas con debilidad visual.

La maestra en sistemas computacionales Ana Claudia Ruiz Tadeo explicó que este prototipo es una pulsera dotada de un microcontrolador y un sensor ultrasónico, que emite vibraciones y alertas sonoras para advertir al usuario la distancia a la que se encuentran los obstáculos.

El prototipo se desarrolla con la finalidad de resolver las dificultades de las personas con debilidad visual al incorporarse a las actividades cotidianas, aseguró Ruiz Tadeo en entrevista con la Agencia Informativa Conacyt.

Además indicó que el sonido que emite el sensor choca con los objetos y regresa, por lo que es posible determinar la distancia en que se encuentra un objeto en un área de cinco metros, con un margen de error de tres milímetros.

“Las ventajas que tiene es que vibra al momento que hay un obstáculo y también lanza un sonido, y entre más cerca esté el usuario del objeto, el sonido es más fuerte y si se aleja, disminuye”, señaló la docente.

Seguridad en el traslado de personas con debilidad visual

Otro de los beneficios es que la diadema creada como una pulsera se puede colocar en diversas partes del cuerpo y puede, además de evitar accidentes, ser un dispositivo de seguridad.

“Con este prototipo, que se presentó en la Academia Journals Colima 2016, se mejorará la calidad de vida del usuario, ya que le brindará un traslado más seguro al momento de desplazarse, puesto que le proporcionará información sobre la distancia de los objetos próximos, evitando que sufra algún incidente que pueda afectar su integridad física”, finalizó la catedrática del Itec.

El estudiante de ingeniería en mecatrónica del Itec, Marco Antonio Rodríguez Hernández, señaló que actualmente existen dispositivos para las personas con debilidad visual que son muy onerosos, por lo que buscan disminuir los costos de producción para que sea más accesible para este sector de la población.

Rodríguez Hernández dijo que no pretenden sustituir por completo el uso del bastón, ya que este les sirve para detectar obstáculos que están al nivel del suelo y así evitar que las personas con debilidad visual caigan o tropiecen.

“La principal función de nuestra pulsera consiste en detectar objetos a la altura del pecho y de la cabeza para evitar accidentes en estas partes del cuerpo, por lo que se contempla como un complemento del bastón. La principal innovación de la pulsera es que incluye emisión de sonido y vibración a diferencia de otros aparatos similares que solo cuentan con una de estas características”, comentó el estudiante.

Las pruebas que se han hecho principalmente son de laboratorio y lo que se propone a corto plazo es hacerlo más ergonómico y más profesional en lo que se refiere a lo estético, porque en cuanto a lo funcional vibra, lanza una señal y de alguna manera protege a las personas con debilidad visual, señaló.

El proyecto denominado Dispositivo auxiliar en movilidad de invidentes surgió en la décima primera edición del Verano de Jóvenes Investigadores del Itec, cuyo objetivo es inculcar en los estudiantes actividades de investigación científica.

Equipo de talentos

El equipo está integrado por los estudiantes de las carreras de ingeniería en mecatrónica e ingeniería industrial del Itec, Marco Antonio Rodríguez Hernández y Elizabeth Guadalupe Romero Venegas, quienes son asesorados por la maestra en sistemas computacionales Ana Claudia Ruiz Tadeo.

Fuente