Accesibilidad web para la aplicación del sitio web de Twitter – Easy Chirp 2 Beta

Easy Chirp 2 Beta

Easy Chirp es una alternativa accesible a la web del sitio web de Twitter.com. Está diseñado para ser fácil de usar y está optimizado para personas con discapacidad. También funciona con navegadores más antiguos solo para teclado como IE9, conexión a Internet de banda baja y sin JavaScript. Obtenga más información sobre accesibilidad web

Consulte las tareas de desarrollo que se encuentran más abajo en esta página para los elementos actualmente en curso. Obtenga más información sobre Easy Chirp en las páginas Acerca de y Características . También puede leer una extensa lista de comentarios de los usuarios y blogs / artículos sobre esta aplicación.

Características notables

  • Realiza un Tweet una imagen con una leyenda y una descripción larga.
  • Una herramienta de URL acortada incorporada con la opción de servicio.
  • Búsqueda, búsqueda de usuarios y búsquedas guardadas.
  • Ver, suscribirse y crear listas de Twitter.
  • Funciona muy bien con o sin JavaScript.
  • Completamente accesible por teclado.
  • Enlazado de tweets en línea; muestra responder “conversación”.
  • Además de los navegadores de escritorio antiguos y nuevos, trabajo en prácticamente cualquier agente de usuario (incluso Lynx, un navegador de solo texto), con lectores de pantalla y pantallas Braille, y tabletas y dispositivos móviles.

Follow in Twitter: @EasyChirp

Fuente: easychirp.com

Hukoomi obtiene el primer lugar en el ranking en accesibilidad web

HUKOOMI GETS THE FIRST RANKING IN WEB ACCESSIBILITY

  • Audiencia: Gobierno
  • Fuente: Ministerio de Transporte y Comunicaciones (MoTC)
  • Tema: Comunicaciones e informática, personas con discapacidad
  • Fecha: 10 de abril de 2018

El Portal de Gobierno Electrónico de Qatar Hukoomi obtuvo el primer ranking en accesibilidad web para el Centro de Tecnología Asistencial (Mada) en abril de 2018, de 124 entidades.

En esta ocasión, el Sr. Tareq Al Emadi, Administrador del Departamento de Gobierno Electrónico de Qatar, Director del Departamento de Hukoomi, dijo: “Nos gustaría agradecer a Mada la gran y fructífera cooperación entre nosotros, y esperamos con interés la continuación de los esfuerzos conjuntos, para el propósito de empoderar a las personas con discapacidad y permitirles acceder fácilmente al contenido digital “.

Al Emadi agregó: “Estamos muy contentos con este logro especial que refleja los grandes esfuerzos de Hukoomi en ofrecer un rico contenido de servicios e información que sea fácilmente accesible para todos los públicos. El portal actualmente incluye más de 1400 servicios, con más de 650 servicios en línea que pueden ser completados en línea por individuos, visitantes, empresas y entidades gubernamentales, como salud, educación, servicios comerciales y mucho más “.

Al Emadi señaló que el portal Hukoomi ha atravesado varias etapas de desarrollo y mejoras, desde su lanzamiento en 2008, al ofrecer más servicios e información, hasta el lanzamiento de la versión actual que ofrece una experiencia de usuario única al mejorar las funcionalidades de la función de búsqueda. y permitir a las personas con discapacidad usar el portal.

Vale la pena mencionar que se ha lanzado el portal Hukoomi para Personas con Discapacidad , como una iniciativa de Mada Center, y en colaboración con el portal Hukoomi, para conectar a las personas con discapacidad con sus familias, cuidadores y proveedores de servicios, brindándoles recursos útiles y temas. Esta información incluye la búsqueda de servicios educativos adecuados, instituciones que ofrecen beneficios por discapacidad, a dónde acudir para servicios especializados de atención médica y rehabilitación, y mucho más.

Fuente: portal.www.gov.qa

Accessibility Tools Mada:  madaportal.org/downloads

Accessibility Tools

 

Psykinetic, demuestra el empoderamiento de la tecnología en el campo de la accesibilidad

Psykinetic Launches, Demonstrates Empowering Accessibility Technology

Por  

La compañía de tecnología para personas con discapacidad Psykinetic   se lanzó en Sydney hoy, dando una idea del futuro de la tecnología de accesibilidad.

La compañía lanzó tres productos emblemáticos diseñados para mejorar las vidas de las personas con discapacidades físicas de alto nivel. Los tres utilizan tecnología de seguimiento ocular para interacciones sin contacto.

Y aunque el hardware de seguimiento ocular existe desde hace un tiempo, el producto Psykinetic demostró una forma más sólida y efectiva para que los usuarios interactúen con la tecnología. La compañía también está trabajando en la integración de interfaces controladas por el cerebro en sus productos.

El primer producto estrella demostrado – ‘Frontier’ – es “el teclado de comunicación más rápido controlado por ojo del mundo”, según la compañía. Los usuarios pueden operar un teclado QWERTY completo para operaciones de texto a voz en lo que la compañía dice que nunca antes se ha visto una velocidad. El software funciona en computadoras personales y utiliza el hardware de seguimiento ocular existente.

La tecnología requiere práctica, pero los usuarios avanzados han grabado velocidades de hasta 44 palabras por minuto. Para poner esto en perspectiva, el dispositivo operado por interruptor utilizado por el fallecido Stephen Hawking operaba entre tres y cinco palabras por minuto.

“Se necesita práctica. Pero es una de esas cosas que crece y se adapta a usted en diferentes niveles “, dijo el Dr. Jordan Nguyen, fundador y CEO de Psykinetic.

Nguyen dijo que los algoritmos de back-end permiten que el software se adapte al comportamiento de los usuarios y a los movimientos oculares. Incluso los usuarios sin entrenamiento estaban registrando las tasas de palabras por minuto en los años veinte, según Nguyen.

“Todos tienen la capacidad de contribuir a la sociedad, mejorar las vidas de los demás y, en última instancia, trabajar por un mundo mejor para las generaciones futuras”, dijo el CEO de Psykinetic.

“Estamos lanzando los puntos de partida de un poderoso movimiento que abrirá un mundo de posibilidades y capacitará a las personas con más herramientas tecnológicas para ayudar a crear ese cambio”.

El campeón Psykinetic, Riley Saban, y el CEO de Psykinetic, Dr. Jordan Nguyen.
El campeón Psykinetic, Riley Saban, y el CEO de Psykinetic, Dr. Jordan Nguyen.

Riley Saban, un estudiante de noveno año que nació con parálisis cerebral cerebral demostró la tecnología en el lanzamiento, describiéndolo como un “cambio de juego” para personas con discapacidades.

“Sin las herramientas adecuadas, no podría ni podría estar haciendo lo que soy hoy”, dijo Saban. “Espero trabajar con el equipo de Psykinetic para apoyarlos en el desarrollo de productos más sorprendentes para las personas necesitadas”.

Psykinetic también reveló y demostró ‘Atmosphere’, un dispositivo musical controlado por Eye Tracking, y ‘Stargaze’, la plataforma digital que ofrece y lanza aplicaciones Psykinetic.

Psykinetic es un proveedor de servicios de National Disability Insurance Scheme (NDIS) y Nguyen dijo que espera que la tecnología esté cubierta por el plan.

“Como cualquier versión principal [el NDIS] tenía sus propios problemas iniciales. Pero creo que Australia está haciendo un movimiento masivo para mostrarle al mundo cómo se hace. Cómo podemos trabajar para crear una sociedad más inclusiva, y creo que el NDIS es crucial para eso “.

Fuente: which-50.com

Silla de ruedas AI autónoma para ayudar a personas con discapacidad

El equipo de expertos de robots del Imperial College de Londres ha ganado $ 50,000 para desarrollar aún más una silla de ruedas artificialmente inteligente controlada por los ojos.

Silla de Ruedas
Crédito: Fotos de ThinkStock

 

El equipo de investigación del Imperial College London ganó $ 50k. El premio fue anunciado como parte del Mobility Unlimited Challenge Challenge Award , que es financiado por Toyota Mobility Foundation y administrado por el Nesta ‘s Challenge Prize Center .

Este premio de investigación ayudará a desarrollar una silla de ruedas autodirigida para personas paralizadas que puedan guiar con su mirada. También esperan hacer que esta silla de ruedas la ponga a disposición de las personas a bajo costo.

El director del proyecto, el Dr. Aldo Faisal de los Departamentos de Computación y Bioingeniería de Imperial, dijo: “Nuestra silla de ruedas ayudará a las personas a navegar por sus hogares y el mundo exterior. Si el usuario puede mover sus ojos para mirar el mundo, puede operar la silla de ruedas que lee las intenciones de sus ojos “.

El poder de la AI se está volviendo accesible y asequible para la gente común. Nosotros en Imperial estamos aprovechando su poder para mejorar vidas.
– Dr. Aldo Faisal

La silla de ruedas inteligente artificial autodidacta combina las tecnologías existentes disponibles, como el sistema de seguimiento ocular y las computadoras portátiles, con la silla de ruedas eléctrica.

La silla utiliza un sensor de Detección y rango de luz ( LiDAR ). Este sensor se basa en el infrarrojo, que se usa con mayor frecuencia en los autos sin conductor para generar un mapa de 360 ​​grados del entorno del usuario.

The self-driving artificially intelligent wheelchair

 

El rastreador ocular en silla de ruedas informa los momentos oculares a la AI y el programa AI define a dónde debe moverse la silla de ruedas y la guía para evitar obstáculos.

La silla de ruedas artificialmente inteligente autodidacta

Los componentes AI y LiDAR han hecho que sea más fácil navegar en la silla de ruedas evitando obstáculos sin más respuesta humana.

La silla de ruedas artificialmente inteligente autodidacta

 

La tecnología ayudará a las personas gravemente discapacitadas a restablecer su independencia a bajo costo.
– Noyan Songur y Mahendran Subramanian

El Dr. Faisal dijo: “Nuestra silla de ruedas es un gran ejemplo de innovación. También demuestra que el poder de la AI se está volviendo accesible y asequible para las personas comunes. Nosotros en Imperial estamos aprovechando su poder para mejorar vidas “.

Los estudiantes de posgrado del equipo de Aldo, Noyan Songur y Mahendran Subramanian dijeron: “Estos sistemas inteligentes de inteligencia artificial pueden aprender y mejorar de forma específica para el usuario a lo largo del tiempo, por lo que podemos trabajar con los pacientes desde el primer día para identificar sus necesidades y expectativas. La tecnología ayudará a las personas gravemente discapacitadas a restablecer su independencia a bajo costo “.

Fuente: techexplorist.com

El sistema informático transcribe palabras que los usuarios “hablan en silencio”

Arnav Kapur, un investigador en el grupo de Interfaces de fluidos en el MIT Media Lab, demuestra el proyecto AlterEgo.
Arnav Kapur, un investigador en el grupo de Interfaces de fluidos en el MIT Media Lab, demuestra el proyecto AlterEgo. Imagen: Lorrie Lejeune / MIT

 

Larry Hardesty | Oficina de Noticias del MIT

Los electrodos en la cara y la mandíbula captan señales neuromusculares indetectables desencadenadas por verbalizaciones internas.

Los investigadores del MIT han desarrollado una interfaz de computadora que puede transcribir palabras que el usuario verbaliza internamente, pero que en realidad no hablan en voz alta.

El sistema consiste en un dispositivo portátil y un sistema informático asociado. Los electrodos en el dispositivo captan señales neuromusculares en la mandíbula y en la cara que se desencadenan mediante verbalizaciones internas, diciendo palabras “en tu cabeza”, pero son indetectables para el ojo humano. Las señales se alimentan a un sistema de aprendizaje automático que ha sido entrenado para correlacionar señales particulares con palabras particulares.

El dispositivo también incluye un par de auriculares de conducción ósea, que transmiten las vibraciones a través de los huesos de la cara hacia el oído interno. Debido a que no obstruyen el canal auditivo, los auriculares permiten que el sistema transmita información al usuario sin interrumpir la conversación ni interferir con la experiencia auditiva del usuario.

El dispositivo es, por lo tanto, parte de un completo sistema de computación silenciosa que permite al usuario plantear y recibir indetectablemente respuestas a problemas de computación difíciles. En uno de los experimentos de los investigadores, por ejemplo, los sujetos usaron el sistema para informar silenciosamente los movimientos de los oponentes en un juego de ajedrez y de forma silenciosa recibir respuestas recomendadas por la computadora.

“La motivación para esto fue construir un dispositivo IA, un dispositivo de aumento de inteligencia”, dice Arnav Kapur, un estudiante graduado en el MIT Media Lab, quien dirigió el desarrollo del nuevo sistema. “Nuestra idea era: ¿Podríamos tener una plataforma informática que sea más interna, que fusione humanos y máquinas de alguna manera y que se sienta como una extensión interna de nuestra propia cognición?”

“Básicamente no podemos vivir sin nuestros teléfonos celulares, nuestros dispositivos digitales”, dice Pattie Maes, profesora de artes y ciencias de los medios y asesora de tesis de Kapur. “Pero por el momento, el uso de esos dispositivos es muy perturbador. Si quiero buscar algo que sea relevante para una conversación que estoy teniendo, tengo que encontrar mi teléfono y escribir el código de acceso, abrir una aplicación y escribir una palabra clave de búsqueda, y todo requiere que cambie completamente la atención de mi entorno y las personas con las que estoy con el teléfono. Por lo tanto, mis alumnos y yo hemos estado experimentando durante mucho tiempo con nuevos factores de forma y nuevos tipos de experiencia que permiten a las personas aún beneficiarse de todos los maravillosos conocimientos y servicios que estos dispositivos nos brindan, pero hágalo de una manera que nos permita ellos permanecen en el presente “.

Los investigadores describen su dispositivo en un documento que presentaron en la conferencia ACM Intelligent User Interface de la Association for Computing Machinery. Kapur es el primer autor del artículo, Maes es el autor principal, y están acompañados por Shreyas Kapur, estudiante de pregrado en ingeniería eléctrica y ciencias de la computación.

Señales sutiles

La idea de que las verbalizaciones internas tienen correlatos físicos ha existido desde el siglo XIX, y se investigó seriamente en la década de 1950. Uno de los objetivos del movimiento de lectura rápida de la década de 1960 era eliminar la verbalización interna, o “subvocalización”, como se la conoce.

Pero la subvocalización como una interfaz de computadora es en gran parte inexplorada. El primer paso de los investigadores fue determinar qué ubicaciones en la cara son las fuentes de las señales neuromusculares más confiables. Así que llevaron a cabo experimentos en los que se les pidió a los mismos sujetos que subvocalizaran la misma serie de palabras cuatro veces, con un conjunto de 16 electrodos en diferentes localizaciones faciales cada vez.

Los investigadores escribieron el código para analizar los datos resultantes y encontraron que las señales de siete ubicaciones de electrodos particulares eran consistentemente capaces de distinguir las palabras subvocalizadas. En el documento de la conferencia, los investigadores informan un prototipo de una interfaz portátil de voz silenciosa, que se envuelve alrededor de la parte posterior del cuello como un auricular de teléfono y tiene apéndices curvos tipo tentáculo que tocan la cara en siete lugares a ambos lados de la boca y a lo largo de las mandíbulas.

Pero en los experimentos actuales, los investigadores obtienen resultados comparables usando solo cuatro electrodos a lo largo de una mandíbula, lo que debería conducir a un dispositivo portátil menos molesto.

Una vez que seleccionaron las ubicaciones de los electrodos, los investigadores comenzaron a recopilar datos sobre algunas tareas computacionales con vocabularios limitados, unas 20 palabras cada una. Una era la aritmética, en la cual el usuario subvocalizaba grandes problemas de suma o multiplicación; otra era la aplicación de ajedrez, en la cual el usuario informaría movimientos usando el sistema estándar de numeración de ajedrez.

Luego, para cada aplicación, usaron una red neuronal para encontrar correlaciones entre señales neuromusculares particulares y palabras particulares. Al igual que la mayoría de las redes neuronales, la que utilizaron los investigadores está dispuesta en capas de nodos de procesamiento simples, cada uno de los cuales está conectado a varios nodos en las capas superiores e inferiores. Los datos se introducen en la capa inferior, cuyos nodos la procesan y pasan a la siguiente capa, cuyos nodos la procesan y pasan a la siguiente capa, y así sucesivamente. El rendimiento de los rendimientos finales de la capa es el resultado de alguna tarea de clasificación.

La configuración básica del sistema de los investigadores incluye una red neuronal entrenada para identificar palabras subvocalizadas a partir de señales neuromusculares, pero puede personalizarse para un usuario particular a través de un proceso que reacondiciona solo las dos últimas capas.

Cuestiones prácticas

Utilizando la interfaz prototipo portátil, los investigadores realizaron un estudio de usabilidad en el que 10 sujetos pasaron unos 15 minutos cada uno personalizando la aplicación aritmética a su propia neurofisiología, y luego pasaron otros 90 minutos usándolo para ejecutar cálculos. En ese estudio, el sistema tenía una precisión de transcripción promedio de aproximadamente el 92 por ciento.

Pero, Kapur dice, el rendimiento del sistema debería mejorar con más datos de capacitación, que podrían recopilarse durante su uso ordinario. Aunque no ha cruzado los números, estima que el sistema mejor entrenado que usa para las demostraciones tiene una tasa de precisión más alta que la informada en el estudio de usabilidad.

En el trabajo en curso, los investigadores están recopilando una gran cantidad de datos en conversaciones más elaboradas, con la esperanza de crear aplicaciones con vocabularios mucho más expansivos. “Estamos en el medio de recopilar datos, y los resultados se ven bien”, dice Kapur. “Creo que lograremos una conversación completa algún día”.

“Creo que están rebajando un poco lo que creo que es un potencial real para el trabajo”, dice Thad Starner, profesor de la Facultad de informática de Georgia Tech. “Como, digamos, controlar los aviones en la pista del aeropuerto de Hartsfield aquí en Atlanta. Tienes ruido de avión a tu alrededor, estás usando estas grandes protecciones para los oídos: ¿no sería genial comunicarse con la voz en un entorno donde normalmente no podrías? Puede imaginar todas estas situaciones en las que tiene un entorno de alto ruido, como la cabina de vuelo de un portaaviones, o incluso lugares con mucha maquinaria, como una planta de energía o una imprenta. Este es un sistema que tendría sentido, especialmente porque a menudo en este tipo de situaciones las personas ya están usando equipo de protección. Por ejemplo, si eres un piloto de combate,

“La otra cosa donde esto es extremadamente útil es operaciones especiales”, agrega Starner. “Hay muchos lugares en los que no es un entorno ruidoso, sino un entorno silencioso. Mucho tiempo, las personas con operaciones especiales tienen gestos con las manos, pero no siempre se pueden ver. ¿No sería genial tener un discurso silencioso para la comunicación entre estas personas? El último es personas con discapacidades en las que no pueden vocalizar normalmente. Por ejemplo, Roger Ebert no tenía la capacidad de hablar más porque perdió la mandíbula debido al cáncer. ¿Podría hacer este tipo de discurso silencioso y luego tener un sintetizador que diga las palabras?

Fuente: news.mit.edu