Diseñan “piano humano” para niños invidentes en universidad de Puebla

Un piano con sensores ultrasónicos, cuya función es permitir que niños con discapacidad visual comprendan el fenómeno físico de la onda y desarrollen su sentido auditivo mediante sonidos programados, fue diseñado por el grupo de divulgación científica y tecnológica de la Facultad de Ciencias de la Electrónica de la BUAP.

Foto: BUAP

Al respecto Daniel Mocencahua Mora, investigador de dicha facultad de la Benemérita Universidad Autónoma de Puebla (BUAP) detalló que lo primero es explicar el concepto de onda y frecuencia, junto con sus características.

“Hacemos que los niños aceerquen sus manos a un ultrasonificador, el cual detecta la proximidad de los objetos que tienen enfrente y con base en la distancia emite una determinada frecuencia de sonido”, explicó.

Daniel Mocencahua señaló que durante un taller de divulgación de la ciencia pidieron a los niños con discapacidad visual que alzaran sus manos a diferentes distancias del sensor y que brincaran, para obtener una mayor intensidad de las frecuencias, todo ello para que entendieran de qué forma se emite una onda sonora.

Añadió que posteriormente, los menores fueron colocados en una línea recta, con su torso dirigido hacia el piano, a cierta distancia de los sensores ultrasónicos, los cuales emitieron un determinado sonido al detectar los movimientos que realizaban.

El especialista de la Facultad de Ciencias de la Electrónica de la BUAP explicó que cuando algunos menores daban un paso hacia adelante y otros hacia atrás, los sensores emitían una melodía diferente, en dos escalas, con el objetivo de tocar la canción de “Estrellita”.

Los integrantes del grupo que diseñaron dicho proyecto le llaman el “piano humano”, el cual está conformado por 14 sensores ultrasónicos encargados de emitir una onda de sonido, con una frecuencia tan alta que resulta imperceptible al oído humano y es recuperada por efecto de rebote.

Explicaron que cuando alguno de los sensores detecta una presencia u objeto enfrente, a una distancia de entre 20 y 50 centímetros, envía una señal a una placa de desarrollo basada en un microcontrolador (Arduino), que es el cerebro del sistema cuya función es emitir una nueva señal para que reproduzca la nota musical, de acuerdo con el número del sensor que se activó.

Los integrantes del grupo Hipercubo de divulgación científica y tecnológica de la Facultad de Ciencias de la Electrónica señalaron que mediante este tipo de instrumentos y su aplicación en niños con discapacidad visual, se busca inculcar la idea de que una limitación física no significa una limitación de vida.

Subrayaron que el piano con sensores ultrasónicos es un ejemplo de la labor de divulgación científica de Hipercubo, grupo que en el 2016 cumplió 15 años de haberse formado y que gracias a su amplia trayectoria ganó la Presea Estatal de Ciencia y Tecnología “Luis Rivera Terrazas”.

Los diseñadores de dicho instrumento son Alejandro Torija Méndez, José Jacob Ascencio Ortiz, Viridiana Ramírez Tendilla, César Alonso García Romo, Isidro Pale Córdoba, Mayra Gerónimo Cruz, Mariana Álvarez Chávez, Javier González Pérez y Salomón Junior Tobón León, estudiantes de dicha facultad e integrantes de Hipercubo.

Fuente: terra.com

Crean instrumento para tocar y componer sólo con la mirada.

EyeHarp es un nuevo instrumento musical digital, creado por dos científicos del Grupo de Investigación en Tecnología Musical de la Universidad Pompeu Fabra (UPF) de Barcelona, que permite tocar y componer música utilizando únicamente la mirada, lo que lo hace muy apto para personas con discapacidades.

EyeHarp es un nuevo instrumento musical digital

Zacharias Vamvakousis y Rafael Ramírez son los creadores de un instrumento musical digital controlado a través de la mirada en la que la interacción y la expresividad con el instrumento la hace el usuario seleccionando los acordes y arpegios, la melodía y el volumen, sólo a través de su mirada.

Los científicos recordaron los beneficios que aporta la música y que, por ejemplo, los músicos presentan algunas regiones cerebrales más grandes, mientras que las personas con discapacidad motora tienen dificultades a la hora de aprender a tocar un instrumento musical.

Según los investigadores, aunque se desarollaron interfaces musicales digitales adaptadas (ADMI), esta alternativa es insuficiente para personas con incapacidad motora severa con parálisis muscular completa.

“Para estas personas, una buena alternativa podría ser la tecnología eye-tracking o de seguimiento de la mirada”, según los expertos del Grupo de Investigación en Tecnología Musical.

Hasta el momento, Vamvakousis y Ramírez han completado una fase piloto para estudiar cuantitativa y cualitativamente la usabilidad del EyeHarp desde la perspectiva del intérprete.

Este experimento lo realizaron con 8 personas sin ningún tipo de discapacidad y con conocimientos musicales y un segundo estudio permitió estudiar la interfaz desde la perspectiva del público.

En esta segunda parte, participaron 31 personas que actuaron como audiencia y que valoraron dos conciertos: una interpretación para EyeHarp solo, y otra para EyeHarp, dos guitarras y flauta.

Según Vamvakousis y Ramírez, que han publicado su trabajo en la revista Frontiers in Psychology, “los resultados obtenidos indican que, al igual que los instrumentos musicales tradicionales, el instrumento musical digital que hemos desarrollado tiene una curva de aprendizaje muy pronunciada y permite producir interpretaciones expresivas, tanto desde el punto de vista del intérprete como del público”.

“Estos resultados abren camino para poder disponer del EyeHarp para personas discapacitadas y facilitar el aprendizaje y la interpretación musical, disfrutando, a su vez, de las ventajas cognitivas que, según han evidenciado varios estudios previos, ofrece esta actividad”, aseguraron.

El proyecto recibió financiación del programa de investigación e innovación Horizont 2020 de la Unión Europea, así como de los proyectos españoles TIN (Tecnologías Informáticas para la Sociedad de la Información) dentro del proyecto TIMUL. EFE

Fuente: espectador.com

Llegó el día, la comercialización masiva de exoesqueletos es una realidad

Desde hace varios años hemos escuchado de los exoesqueletos, esto gracias a una gran cantidad de desarrollos que buscan ofrecer movilidad a personas con alguna discapacidad, la mayoría de estos proyectos coinciden en algo, en que se trata de proyectos en etapa de desarrollo, es decir, no están disponibles para que cualquier persona pueda adquirirlos.

Pero al parecer, después de varios años, finalmente estamos ante un producto totalmente funcional, aprobado por las autoridades y lo más importante, que estará a la venta de forma masiva, con lo que cualquier persona interesada podrá hacerse con uno en las próximas semanas.

Indego: el exoesquelto aprobado por la FDA para uso clínico y personal

Indego es un proyecto que tiene más de 10 años de desarrollo, el cual consiste en un exoesqueleto robótico que ofrece movilidad a personas con discapacidades que no les permiten mover las piernas. Sus creadores solicitaron la aprobación de la Administración de Alimentos y Medicamentos (FDA) en 2012, y finalmente han recibido una respuesta positiva.

Después de algunas modificaciones y solicitudes adicionales, el exoesqueleto Indego ha sido recibido la aprobación de la FDA, que lo pone como un dispositivo avalado para uso clínico y personal, lo que permitirá que salga a la venta en Estados Unidos y algunos países compatibles con las normas de las FDA.

Este exoesqueleto es el segundo en el mundo en tener la aprobación de la FDA, sin embargo todo apunta a que éste será el primero en comercializarse. Entre sus funciones ofrece un soporte rígido unido a la cadera, rodillas y pies, todo a través de un soporte que se coloca alrededor del torso.

Cuenta con un par de motores eléctricos programados por ordenador e impulsados por baterías recargables, los que permiten que el usuario se pueda desplazar como en una especie de Segway, es decir, si la persona se inclina hacia adelante o hacia atrás, el exoesqueleto avanzará o retrocederá, de igual forma, si la persona se inclina hacia atrás por un tiempo, el dispositivo lo ayudará a sentarse.

Indego tiene un peso de sólo 11,79 kilogramos, siendo uno de los más ligeros actualmente, sus creadores piensan ponerlo a la venta en las próximas semanas por un precio aproximado de 80,000 dólares. Pero eso no es todo, ya que gracias a la aprobación de la FDA, están luchando para que las compañías aseguradoras cubran el coste total del exoesqueleto para que así más personas puedan acceder a él, lo que marcaría un nuevo hito en este tipo de dispositivos.

exoesqueleto

Fuente

 

Twitter simplifica la búsqueda de contactos en aras de acelerar la interactividad

twtterirconeect--620x250

La plataforma crea una nueva pestaña llamada Connect que generará una lista de usuarios recomendados en función de los intereses de cada uno.

Más interactividad, más conversación, más uniones y, sobre todo, la esperanza de aumentar exponencialmente su base de usuarios. El nuevo servicio puesto en marcha por la red de «microblog» Twitter, que cuenta con 310 millones de seguidores en todo el mundo, permitirá encontrar amigos y cuentas relacionadas con los gustos e intereses del usuario.

La nueva pestaña Connect, ya disponible desde las versiones para dispositivos móviles basados en los sistemas operativos iOS y Android, engloba un listado de cuentas y perfiles que mejor se ajusten, a priori, a los intereses de cada usuario. Actúa a modo de listas recomendadas de usuarios susceptibles de seguir.

Esta nueva opción viene a dar respuesta a una laguna existente en la plataforma, ya que hasta la fecha localizar a usuarios interesantes para cada uno resultaba un trabajo engorroso. «La búsqueda de nuevas cuentas para seguir hay que tener una pizca de suerte», reconoce Ricardo Castro, responsable de producto de Twitter, en un comunicado publicado en el blog corporativo.

«A partir de ahora verás una lista detallada de personas y de cuentas que pensamos que disfrutaréis de seguir y serán fácilmente accesibles desde un solo lugar», añade. La selección de los mismos depende de varios parámetros extraídos de la actividad de cada usuarios, como los «me gusta», las cuentas populares de un determinado área, los mensajes de actualidad y los usuarios a lo que ya se sigue. Con todo, Twitter elaborará una lista de perfiles supuestamente interesantes.

De cara a ampliar la interactividad, esta pestaña Connect también hará que sea más fácil comunicarse con amigos, ya que dará la opción de sincronizar automáticamente su libreta de direcciones. «Y si alguien en sus contactos se une a Twitter te lo haremos saber para que les puedas dar una cálida bienvenida», justifica.

Fuente

Así es como usa Internet un invidente. Al menos algunos

jaws

Si bien es cierto que la mayoría podemos hacernos una ligera idea de las incomodidades a las que se ven sometidas las personas que padecen algún tipo de discapacidad visual, lo cierto es que pocos somos conscientes de cómo estos individuos se desenvuelven en determinados entornos y actividades.

Es el caso de la navegación por Internet, un acceso sin el que muchos seríamos incapaces de “vivir” y que Facebook y otras plataformas tratan de poner más fácil. Pero, ¿en qué consisten estas iniciativas? ¿Cómo lo logran exactamente? ¿De qué herramientas se valen? Analizamos el contexto actual y les preguntamos a algunos de ellos.

Así, hace unas horas Facebook ha confirmado una utilidad que dio a conocer el mes pasado: un servicio capaz de describir y leer los subtítulos de las fotografías a los usuarios ciegos. Algo muy útil -especialmente si tenemos en cuenta que los habituales de su plataforma suben unos 350 millones de imágenes al día- que la entidad resuelve de la mano de un sistema de inteligencia artificial de reconoce los diferentes elementos de la captura.

“Una solución que permitirá a los ciegos unirse a conversaciones en las que anteriormente se les había dejado fuera”, ha comentado Matt King, especialista de esta área de la red social. En concreto, la aplicación puede identificar unos 100 elementos con una precisión de entre el 80 y 90% y se comunica en inglés. Eso sí, sus desarrolladores pretenden ampliar el catálogo de conceptos e idiomas progresivamente.

Sin embargo, la iniciativa de la red de Zuckerberg no es única en su especie sino que a mediados del mes pasado, la Wikipedia anunció que estaba trabajando en un motor de búsquedas específico para las personas con discapacidad visual: Wikispeech. Un sistema que les permitirá encontrar respuestas con mayor precisión y que, si bien empezará a funcionar en sueco, inglés y árabe, se expandirá hasta a 280 idiomas más antes de septiembre del año que viene.

Una apuesta interesante que se vale de otros servicios como Google Fotos y que trata de beneficiar al 25% de sus usuarios y para cuyo desarrollo la entidad se ha asociado con investigadores del Instituto de Tecnología KTH de Suecia. Su finalidad no es otra que la de crear el primer sistema de voz mundial desarrollado bajo un programa de crowdsourcing. El servicio, que también cuenta con la colaboración de la Swedish Post and Telecom Authority (PTS) y la STTS –especialista en sistemas tecnológicos para el habla-.

Qué dicen ellos

Sin embargo y a pesar de los progresos parece que todavía queda mucho por hacer en este ámbito. Para que podamos hacernos una idea, Jonathan Armengol y aficionado a la tecnología, nos cuenta cómo emplea Internet. Una experiencia para la que se vale de un MAC y de Safari, que utiliza desde para leer un periódico hasta sacar una entrada o buscar información.

“La navegación es bastante distinta, mucho más lenta, que para una persona que ve, porque para la que no lo hace se ve obligada a leer la página completa y depende mucho de su desarrollo”, comenta. “No tienes una visión global en ningún momento […] me lo tengo que tragar todo de cabo a rabo y no me lo puedo saltar hasta que el ordenador empieza a hablar”.

“Es viable y es posible navegar por Internet pero procuramos evitarlo en la medida de lo posible porque es un coñazo […] aunque comparativamente a lo que era antes con Flash al menos tenemos esa posibilidad”, remata. Un hecho que todavía complica más la falta de adaptación de muchas webs, a la que Armengol se refiere indignado, especialmente si tienen que ver con bancos, pues “solo el 20% son accesibles y en los que sacar dinero o llevar a cabo cualquier trámite puede complicarse”.

El trabajo es otro de los ámbitos en los que la falta de adaptación de los puestos puede conllevar ciertos inconvenientes, incluso para aquellos que cuentan con un 44% de discapacidad visual. Es el caso de Goyita Martín que, a pesar de trabajar en Tesorería, sus problemas de visión le llegaron a suponerle ciertas limitaciones. Unos problemas cuya solución radicó siempre en el agrandamiento de las letras y en la elaboración de una versión del programa que utilizaban con los caracteres de mayor tamaño.

Una petición que tuvo que llevar a cabo ella misma pues, tal y como se refiere y en términos generales, existe un gran desconocimiento al respecto. “Me valía de una lupa y de una pantalla agrandada, que para cualquier otra persona resultaría complicada de usar”, comenta. “Y eso que todavía tengo algo de visión”. Obviamente esta iniciativa no puede más que considerarse como un precario parche.

No existe consenso

En todo caso, no todos están de acuerdo (algo que hemos podido comprobar tras el aluvión de críticas recibidas a través de redes sociales). Al respecto, José María Ortiz, bloguero y asesor de accesibilidad web y móvil, comenta que el acceso a internet ha abierto muchas puertas a las personas ciegas, “como poder hacer la compra online en un supermercado”. También añade que “hay mucha gente haciendo esfuerzos para que esto cambie”.

De esta manera, existen herramientas como Apple VoiceOver -una prestación que te detalla todo lo que aparece en la pantalla del ordenador y te va guiando a la hora de seleccionar una opción determinada en el menú, activar un botón en el teclado, etcétera-. El servicio tiene otras ventajas como que es compatible con dispositivos braille electrónicos y que cuenta con un panel para favorecer la interacción entre los usuarios no invidentes y los que sí lo son; un rasgo que es posible aprovechar en el ámbito doméstico como el empresarial y educativo. Se encuentra disponible en más de 30 idiomas distintos. Jaws y Nva actúan de manera similar.

Asimismo y respecto a este tipo de utilidades, Halena Rojas comenta que “los usuarios que interactúan a través de un lector de pantalla no están obligados a escuchar toda una web para acceder al contenido de la misma. Dichas herramientas cuentan con atajos de teclas que facilitan la navegación y permiten acceder a diferentes zonas de la web […] Debido al ruido que puede ocasionar escuchar el motor de voz durante la carga de una web, lo más frecuente es detener la verbalización y luego intentar ubicar encabezados, listas o listar enlaces”.

La bloguera también explica que “la rapidez con que una persona interactúa con una página web, no depende de la ceguera o la visión. De hecho, al no necesitar ver la web, mediante el teclado una persona ciega puede acceder más rápidamente a un sitio determinado de una web, que aquel que debe visualizar dónde quiere ir para luego acceder pulsando”.

Las apps

Sin embargo y más allá de la navegación en sí misma, un amplio abanico reconoce que el avance y desarrollo de las apps ha supuesto grandes mejoras. De hecho, Armengol las emplea diariamente. Y no nos estamos refiriendo a aplicaciones específicas únicamente, sino también a aquellas que empleamos todos y que resultan accesibles para este colectivo.

“Yo hasta hace poco solo podía llegar a los sitios preguntando”, asegura, “ahora puedo usar una aplicación que se llama Lazzus, que te va ubicando”. La herramienta “es una mezcla entre el GPS y los acelerómetros, no ve por la cámara, pero me sirve para encontrar los sitios”, añade. “No puedes hacerte una idea de cómo de complicado puede hacerse algo tan sencillo como encontrar un Zara para recoger un pantalón”.

En concreto, Lazzus funciona usando la posición GPS del móvil y su brújula para generar un campo de visión sobre el que proporciona información auditiva, dotando al usuario del contexto que no puede ver y ofreciéndole mayor independencia.

Pero no es la única que usa; “si vieras mi móvil fliparías, tengo más de 100 apps”, comenta. Entre ellas se cuela también Moovit, una aplicación para el transporte público interurbano. De hecho ha sido solo hace unas semanas cuando ha estrenado la compatibilidad con VoiceOver y TalkBack, dos funciones que mejoran la experiencia de estas personas y les permiten escuchar diferentes sonidos que les guiarán a la hora de navegar por la app.

Unas prestaciones muy útiles, sobre todo si tenemos en cuenta que no siempre el anuncio del metro que indica la próxima parada está en lo cierto. La de la EMT de Madrid también es otra de sus habituales, que emplea con fines parecidos. Para el interior de su domicilio se decanta por Seeing Assistant Home, capaz de identificar las fuentes de luz, colores, generar códigos de barras, escanearlos y guardarlos; entre otros.TapTapSee es otra a las que se refiere.

En su iPhone también tienen cabida Skype, WhatsApp, Evernote, Fantasticam, mapas Apple, movies y hasta Netflix. Sí has leído bien, porque a pesar de que la televisión carece de atractivo alguno para Jonathan, esta última herramienta le resulta sencilla de usar y le mantiene “enganchado”. Un descubrimiento que comenta con agrado.

Respecto a la accesibilidad de otras no presentes en su lista, Armengol recalca que él se decanta por escribirle a los desarrolladores, “la gente no lo adapta automáticamente aunque puedes obtener todo tipo de respuestas”. De hecho, critica de manera particular la de Philips “me he gastado 300 euros en lámparas de Philips y me encantaría metérselas por el c*** a su presidente, porque no puedo encenderlas desde la aplicación”.

Otros proyectos y herramientas

Por otra parte, y fuera de nuestras fronteras nos topamos con Wayfindr, desarrollada, ni más ni menos, que por la Royal London Society for Blind People (RLSB) y UsTwo. Una herramienta basada en la colocación estratégica de una serie de etiquetas o carteles bluetooth en las paredes del metro, un sistema que lleva las correspondientesinstrucciones al móvil del usuario y que está pensado para guiarle como lo haría cualquier GPS.

Siemens también tiene su propio proyecto al respecto: InMoBS. Una iniciativa que permitirá a las personas con discapacidad visual moverse por la urbe con más confianza y seguridad. ¿Cómo? Mediante una app móvil que les guiará en sus desplazamientos y que interpreta los datos de su posición pero también otros transmitidos por el control del tráfico y otros elementos urbanos que no tardarán en estar conectados en un futuro no muy lejano.

De hecho, actualmente ya se ha probado en varias ciudades alemanas, donde se ha recabado información procedente de las señales de tráfico y los vehículos conectados. La herramienta, asimismo, funciona mediante vibraciones y sonidos, que alertarán al sujeto de posibles vehículos, semáforos, etcétera.

Volviendo a nuestro punto de partida y ya en 2012, la ONCE denunció la baja accesibilidad de las redes sociales, un hecho que dio lugar a una propuesta de la Universidad de Granada que permite adaptar la comunidad virtual de Zuckerberg a las personas con discapacidad visual. Eso sí, se encuentra centrada en la reducción del tiempo empleado para determinadas tareas y demás.

Otras herramientas pensadas para los usuarios ciegos son las redes socialesespecíficas, como Blindworlds, en la que incluso puedes establecer unas opciones de accesibilidad. Una comunidad pensada para ellos que nació bajo “la vocación de prestar un servicio a la sociedad, y especialmente a las personas con problemas de discapacidad física, y fundamentalmente a aquellas con discapacidad visual, para facilitar con esta herramienta el acceso a la información”.

Evidentemente, en ella tienen cabida toda clase de usuarios, y pueden publicarse un gran abanico de archivos, mensajes de audio, enlaces con su correspondiente título y descripción , textos de 140 caracteres y otras opciones como elegir amigos, invitarlos a usarla, etcétera.

Fuente