Informáticos con sólo un guiño

Un sistema de lectura de la pupila permite a las personas con discapacidad dirigir el puntero de un ratón con la mirada.

Como si el ordenador leyera la mente. Ya no es necesario hacer clic con el ratón, o ni siquiera pronunciar en voz alta las órdenes. Basta con dirigir la mirada a lo largo de la pantalla para que la computadora siga nuestras instrucciones mudas. El diseñador de la aplicación informática que hace posible este uso, Pedro Palomo, decidió desarrollar la iniciativa al ver que “había personas que sólo tenían acceso al ordenador a través del movimiento de los ojos”. Las personas con discapacidad serán las principales beneficiarias de la herramienta y, por eso, el medallista paraolímpico Santiago Pesquera fue el encargado de presentar en público el modo de funcionar del nuevo invento. Pesquera puso en marcha ayer los dos ordenadores que Aspace Navarra ha adquirido para el centro Ramón y Cajal de Cizur Menor y para su sede de Pamplona, a la que facilitarán el acceso a quienes necesiten utilizar la herramienta.

“Suena a película”, aseguró Santiago Pesquera, “pero cuando lo conoces te das cuenta de que no es para tanto”. El joven lleva dos años trabajando como informático y se encuentra familiarizado con el programa, por lo que puede compararlo con otras aplicaciones que ha empleado. “Antes utilizaba un casco que tenía sujeto en la frente un palito con el que manejaba la pantalla, pero me obligaba a estar en una postura que cansa mucho”.

Tal y como explica Pedro Palomo, la tecnología en sí misma no es tan complicada. Explicado de manera sencilla, “consiste en una cámara que lee la pupila y devuelve la imagen al ordenador. Allí, el punto en el que se fija la mirada se traduce en coordenadas para el ratón, que se dirige allí”. El aparato es un dispositivo alargado que se coloca frente al teclado. En él está insertada una cámara que busca la mirada del usuario, y a ambos lados de ésta se encuentran dos paneles que proyectan luz hacia los ojos, de manera que sea más fácil para el ordenador detectarlos. A partir de ahí, basta con dirigir la mirada a un punto de la pantalla para que el puntero del ratón la siga y, a la hora de hacer clic, caben dos opciones: dejar la mirada fija durante unos segundos o parpadear.

El programa puede salvar las barreras de las personas con discapacidad para comunicarse porque una de sus aplicaciones consiste en un panel con símbolos (de comida, bebida, petición de cambio de postura etc) sobre los que basta con pinchar para que el ordenador realice en alto una petición. El único problema es el elevado precio de la herramienta, que ronda los 8.000 euros. “Por eso pedimos a la Administración que se haga cargo y facilite con subvenciones el acceso a esta tecnología”, apuntó Pesquera.

Fuente: noticiasdenavarra.com

Leer másInformáticos con sólo un guiño

El auto que se conduce por teléfono

Un proyecto en Alemania desarrolló un programa con el cual se puede conducir un auto sin estar detrás del volante.

La manera de hacerlo es através de un celular.

La investigación, encabezada por el profesor mexicano Raúl rojas, forma parte de un proyecto que tiene como objetivo crear un vehículo completamente automatizado, que pueda funcionar por si solo.

Vea cómo el auto acelera, frena y gira en el video de BBC Mundo.

Fuente y Video: BBC Mundo

Para poder el video den un click en el enlace.

Leer másEl auto que se conduce por teléfono

Una mano biónica casi humana.

Madrid, 27 nov (EFE TV).- Alex Eichinger nació sin una mano por un problema congénito y hoy, a sus 28 años, ha experimentado el milagro de utilizar una extremidad biónica que parece humana, no sólo por su forma sino por su capacidad de movimiento y fuerza de agarre.

Eichinger ha exhibido, en una rueda de prensa, las capacidades de este prototipo tecnológico que pesa tan sólo cuatrocientos gramos y con el que puede lavarse los dientes, poner un CD, manejar un teclado, relajar totalmente la mano en dos segundos y, también, despedir afectuosamente a un amigo.

Fuente: EFE TV

Noticia emitida el 27 Noviembre del 2008.

Leer másUna mano biónica casi humana.

Lentes traductores

La herramienta más avanzada de traducción son lentes inteligentes que presentan subtítulos de forma automática cuando se hablan palabras o frases extranjeras.

El aparato -creado por la empresa de alta tecnología NEC- es similar a los anteojos pero en lugar de lentes lleva un pequeñísimo proyector que expone las imágenes en la retina del usuario.

La empresa produjo una versión que utiliza una traducción en tiempo real que exhibe subtítulos cuando se lleva a cabo una conversación entre dos personas que no tienen un idioma común.

Según NEC, los lentes creados ahora, bautizados Tele Scouter, son una herramienta de negocios que puede ayudar al personal de ventas a recibir -en la retina de su ojo- información sobre el registro de compras del cliente durante una conversación.

Pero el dispositivo también puede tener usos más “exóticos” como ayudar en la traducción de palabras.

“Estos lentes llevan un micrófono que recoge las voces de ambas personas en la conversación” explicó a la BBC Don DePalma. experto en tecnología.

“Posteriormente las transfiere a un software de traducción y sistemas de voz a texto y después envía la traducción del texto a las retinas de cada individuo, en el idioma de cada persona que usa el aparato”.

Al mismo tiempo que el usuario recibe la información en la retina puede escuchar la traducción en sus audífonos.

Para superar incapacidades
Según NEC el aparato podría ser muy útil en conversaciones confidenciales en las que no se desea el uso de un traductor humano.

Tal como señala DePalma, el avance “es un ejemplo fundamental en lo que siempre todos hemos deseado, es decir, superar la barrera del lenguaje”.

“Y ahora se está logrando con unos anteojos que permiten a la persona superar esa incapacidad de hablar un idioma extranjero”, agrega.

El sistema, dice la empresa, es compacto y ligero para que puede ser utilizado cómodamente durante largos períodos y que use mucha batería.

Pero todavía falta algún tiempo para poder contar con un par de lentes que, si nos vemos perdidos en un país extranjero, nos traduzcan automáticamente las direcciones que se nos den.

Por el momento, los Tele Scouter están todavía en protitipo.

La empresa espera lanzarlos en Japón en noviembre del 2010, pero inicialmente serán la versión empresarial y no tendrán la capacidad de traducción.

Se espera que los lentes con capacidad de traducción estén listos en el 2011. La mala noticia es que posiblemente no estén al alcance de todos.

Se espera que un juego de 30 dispositivos cuesten alrededor de 7,5 millones de yenes, unos US$83.000 dólares. Y el costo no incluye el precio de las herramientas de traducción, ni el software.

Fuente: BBC Ciencia

Leer másLentes traductores

Diseñan un software para mover objetos con la mente

El programa desarrollado en Entre Ríos y La Plata reproduce movimientos mediante la estimulación visual. Beneficia a personas con parálisis.

La mirada dice más que mil palabras y, en algunos casos, más que cientos de músculos. Investigadores de la Universidad Nacional de Entre Ríos (UNER) diseñaron un programa informático que reproduce, en tiempo real, las ondas emitidas por el cerebro humano sin necesidad de utilizar músculos o nervios periféricos. Gracias a esto, las personas afectadas por enfermedades paralizantes podrán activar un objeto –una silla eléctrica por ejemplo- sin ayuda de un tercero.

“El objetivo es que las personas con esclerosis lateral amiotrófica, lesión medular o daño cerebral puedan controlar una prótesis o una silla de ruedas directamente desde modulaciones en su actividad cerebral”, dijo a la agencias de noticias Télam Gerardo Gentiletti, coordinador del proyecto.

Si bien la “interfase cerebro-computadora (ICC) basada en la electroencefalografía se estudia desde hace veinte años, es inédito en Argentina y el resto de Latinoamérica un simulador que actúe en tiempo real”, explicó Gentiletti.

Los técnicos desarrollaron un simulador de una silla de ruedas que realiza sus movimientos mediante la estimulación visual. El cerebro envía el mensaje a través de ondas llamadas P300 y el ordenador lo recibe, analiza, decodifica y traduce en los movimientos que el cerebro quiere ejecutar. El único requisito para los pacientes es que la capacidad cognitiva del cerebro no esté dañada.

El investigador manifestó que “el conocimiento para trasladar de un simulador a una silla de ruedas robótica lo tenemos, faltarían recursos para tener la tecnología final”. Por el momento, el siguiente paso “es dotar de practicidad al proyecto para lo cual tendremos entrevistas con neurólogos del Instituto Fleni de Buenos Aires”, dijo Gentiletti.

El descubrimiento surgió del trabajo conjunto de un grupo de bioingenieros del Laboratorio de Ingeniería en Rehabilitación e Investigaciones Neuromusculares y Sensoriales de la UNER y de los ingenieros en informática de la Universidad Nacional de La Plata (UNLP).

ANTESALA DEL DESARROLLO. Las investigaciones con ondas P300 comenzaron en la década del 60 pero fue en los 80 cuando comenzaron aplicarse a una ICC y ahora “algunos países europeos como Suiza y Austria y los Estados Unidos también las aplican aunque trabajan con otras líneas de conocimiento”.

Argentina, en conjunto con especialistas de Chile, integran el grupo sudamericano que intercambia información con la Universidad de París para mejorar la detección de las ondas P300.

La Universidad de Entre Ríos trabaja desde el 2006 en este proyecto con la UNLP. “Somos un grupo multidisciplinario que presentamos una alternativa, pero no somos la solución directa al problema, hay que contar con una empresa para desarrollar esa tecnología”, dijo el coordinador.
Fuente: criticadigital.com

Leer másDiseñan un software para mover objetos con la mente