La compañía de tecnología para personas con discapacidad Psykinetic se lanzó en Sydney hoy, dando una idea del futuro de la tecnología de accesibilidad.
La compañía lanzó tres productos emblemáticos diseñados para mejorar las vidas de las personas con discapacidades físicas de alto nivel. Los tres utilizan tecnología de seguimiento ocular para interacciones sin contacto.
Y aunque el hardware de seguimiento ocular existe desde hace un tiempo, el producto Psykinetic demostró una forma más sólida y efectiva para que los usuarios interactúen con la tecnología. La compañía también está trabajando en la integración de interfaces controladas por el cerebro en sus productos.
El primer producto estrella demostrado – ‘Frontier’ – es “el teclado de comunicación más rápido controlado por ojo del mundo”, según la compañía. Los usuarios pueden operar un teclado QWERTY completo para operaciones de texto a voz en lo que la compañía dice que nunca antes se ha visto una velocidad. El software funciona en computadoras personales y utiliza el hardware de seguimiento ocular existente.
La tecnología requiere práctica, pero los usuarios avanzados han grabado velocidades de hasta 44 palabras por minuto. Para poner esto en perspectiva, el dispositivo operado por interruptor utilizado por el fallecido Stephen Hawking operaba entre tres y cinco palabras por minuto.
“Se necesita práctica. Pero es una de esas cosas que crece y se adapta a usted en diferentes niveles “, dijo el Dr. Jordan Nguyen, fundador y CEO de Psykinetic.
Nguyen dijo que los algoritmos de back-end permiten que el software se adapte al comportamiento de los usuarios y a los movimientos oculares. Incluso los usuarios sin entrenamiento estaban registrando las tasas de palabras por minuto en los años veinte, según Nguyen.
“Todos tienen la capacidad de contribuir a la sociedad, mejorar las vidas de los demás y, en última instancia, trabajar por un mundo mejor para las generaciones futuras”, dijo el CEO de Psykinetic.
“Estamos lanzando los puntos de partida de un poderoso movimiento que abrirá un mundo de posibilidades y capacitará a las personas con más herramientas tecnológicas para ayudar a crear ese cambio”.
Riley Saban, un estudiante de noveno año que nació con parálisis cerebral cerebral demostró la tecnología en el lanzamiento, describiéndolo como un “cambio de juego” para personas con discapacidades.
“Sin las herramientas adecuadas, no podría ni podría estar haciendo lo que soy hoy”, dijo Saban. “Espero trabajar con el equipo de Psykinetic para apoyarlos en el desarrollo de productos más sorprendentes para las personas necesitadas”.
Psykinetic también reveló y demostró ‘Atmosphere’, un dispositivo musical controlado por Eye Tracking, y ‘Stargaze’, la plataforma digital que ofrece y lanza aplicaciones Psykinetic.
Psykinetic es un proveedor de servicios de National Disability Insurance Scheme (NDIS) y Nguyen dijo que espera que la tecnología esté cubierta por el plan.
“Como cualquier versión principal [el NDIS] tenía sus propios problemas iniciales. Pero creo que Australia está haciendo un movimiento masivo para mostrarle al mundo cómo se hace. Cómo podemos trabajar para crear una sociedad más inclusiva, y creo que el NDIS es crucial para eso “.
Las prótesis se transforman en extensiones controladas por la mente del cuerpo humano que permiten a los usuarios sentir lo que están tocando.
Garrett Anderson casi le rompe la mano a su abuela mientras trataba de darle un suave apretón.
El sargento retirado del ejército de EE. UU., Que había perdido su brazo derecho debajo del codo en 2005 mientras patrullaba en Irak, no pudo determinar cuánta presión aplicaba con su mano protésica. Es un problema común.
Cuando sostenemos un bolígrafo, estrechamos una mano o tomamos una cáscara de huevo, instintivamente sabemos cuánta presión ejercer sin aplastar el objeto. Tal retroalimentación sensorial no es posible con la mayoría de las manos protésicas, que permiten a los amputados sujetar un objeto, pero no pueden decirles cuánta presión están usando.
Anderson, de 41 años, ha estado haciendo su parte para cambiar eso. Durante los últimos tres años, ha estado probando prototipos que lo hacen sentir nuevamente.
“Puedo sentir tocar la mano de mi hija o tocar la mano de mi esposa, o recoger una cáscara de huevo sin aplastarla”, dice Anderson sobre su trabajo con Psyonic , una nueva empresa que opera en el Parque de Investigación de la Universidad de Illinois, en Urbana-Champaign. . Psyonic espera proporcionar prótesis comerciales con detección de presión el próximo año, y otras con retroalimentación sensorial en algún momento después de eso.
La tecnología está en el umbral de convertir lo impensable en realidad. Las prótesis incómodas y torpes se transforman en extensiones controladas por la mente del cuerpo humano que les dan a los usuarios un sentido del tacto y un mayor rango de movimiento.
Junto con la retroalimentación sensorial, las prótesis de goma y silicona de Psyonic utilizan el aprendizaje automático para brindar a sus usuarios un control intuitivo. La extremidad protésica modular de la Universidad Johns Hopkinspromete ofrecer una fuerza “humana”, destreza y sensación controladas por el pensamiento. Actualmente se encuentra en la fase de investigación. Y la compañía islandesa Ossur está llevando a cabo ensayos preclínicos sobre prótesis de piernas y pies controladas por la mente. Estos y otros avances podrían hacer que sea más fácil para los amputados realizar los tipos de tareas que la mayoría de las personas dan por hecho.
Señales de mano
Al igual que muchas prótesis ya en el mercado, la mano Psyonic de Anderson es lo que se llama una prótesis mioeléctrica, lo que significa que se controla utilizando señales eléctricas generadas por los músculos restantes de su brazo. Los músculos en su antebrazo le dicen a sus dedos que se flexionen y se extiendan, por ejemplo.
No lo llamo una prótesis. De hecho, lo llamo mi brazo.
Jodie O’Connell-Ponkos
Cuando Anderson piensa en mover la mano, los electrodos en la mano protésica miden las señales eléctricas de su antebrazo, mientras que el software de reconocimiento de patrones detecta si quiere abrir o cerrar la mano, juntar los dedos o cerrar un puño, por ejemplo. En efecto, sus pensamientos controlan su mano artificial.
Pero es la retroalimentación sensorial de la prótesis, gracias a los sensores de presión en las yemas de los dedos, lo que le permite a Anderson estrechar la mano sin romper huesos, sostener una delicada cáscara de huevo con los ojos vendados o clavar un clavo en una tabla. Cuando toca un objeto, esos sensores le permiten sentir vibraciones, hormigueo o presión.
Control del pensamiento
Sin algo así como el software de reconocimiento de patrones, una prótesis mioeléctrica puede ser difícil de controlar.
Eso fue cierto para Jodie O’Connell-Ponkos, una entrenadora de caballos en Ghent, Nueva York, que había perdido la mano en una picadora de carne industrial cuando tenía 16 años. A menudo luchó para que su prótesis funcionara porque era difícil para alinear los sensores a los músculos de sus brazos.
“El brazo casi me hizo sentir como un fracaso a veces”, dice O’Connell-Ponkos, de 49 años. “Era más incómodo de llevar que no usar, así que opté por alejarme de él”.
Más de 20 años después, en 2015, recibió una mano protésica de la empresa alemana Ottobock que había sido equipada con un controlador de Coapt, en Chicago.
De manera similar a la prótesis de Psyonic, el sistema de Coapt decodifica las señales eléctricas de los músculos restantes de un amputado. Igualmente importante, también utiliza un algoritmo de reconocimiento de patrones para traducir la intención en movimiento.
O’Connell-Ponkos ahora usa su mano artificial para todo, desde atarse los zapatos y ponerse el pelo en una cola de caballo para cortar leña y entrenar caballos. “No hay mucho que no haya resuelto cómo hacer”, dice ella. “No lo llamo una prótesis. De hecho, lo llamo mi brazo”.
La tecnología de Coapt ha estado en el mercado desde 2012 y es compatible con una variedad de prótesis de ocho compañías.
Tales avances tecnológicos no están limitados a la parte superior del cuerpo.
Es realmente esa experiencia humana que estamos comenzando a restaurar.
Dustin Tyler
Ossur , con sede en Reykjavik, Islandia, comenzó un esfuerzo para desarrollar prótesis de pierna y pie controladas por el pensamiento. Para que funcionen, los cirujanos implantarían un pequeño sensor mioeléctrico en los músculos restantes de las piernas de los amputados. El sensor recibe los impulsos eléctricos subconscientes del cerebro y, con la ayuda de un procesador por separado, redirige las señales a la prótesis. El objetivo: permitir que los amputados se muevan y caminen sin pensarlo conscientemente.
“Usted está devolviendo lo que llamamos el ‘control voluntario’ para el paciente”, dice Kim DeRoy, vicepresidente ejecutivo de investigación y desarrollo en Ossur. “Y eso es algo que, para muchos pacientes, falta”.
Mirando hacia el futuro
El futuro de las prótesis es todo acerca de los implantes.
Específicamente, los investigadores están explorando el uso de implantes pequeños con forma de píldora insertados profundamente en un músculo, lo que permite un control más preciso y preciso.
Pero ese no es su único beneficio potencial si la investigación de Dustin Tyler se desarrolla. El profesor de ingeniería biomédica de la Universidad Case Western Reserve está desarrollando una técnica que podría engañar al cerebro para que piense que las sensaciones provienen de la mano faltante de carne y hueso.
El esfuerzo consiste en colocar un manguito de electrodos alrededor de los nervios restantes de la persona amputada y conectar esos manguitos a un pequeño dispositivo implantado en el pecho que, a su vez, activa esos nervios. Una conexión Bluetooth vinculará el implante de tórax con el brazo protésico, de modo que cuando el brazo toque algo, active los nervios. Tyler cree que los implantes podrían obtener la aprobación de la FDA dentro de los próximos 10 años.
“Es realmente esa experiencia humana que estamos comenzando a restaurar”, dice. “No creo que debamos subestimar el valor de eso”.
Este mes he tenido la suerte de co-presentar sobre Diseño Universal para el Aprendizaje con Kirsten Behling, Erin DeSilva, Lance Eaton, Kelsey Hall, Marisha Marks, Andrea Milligan, Adam Nemeroff y Marcie Saboya en el NERCOMP (programa informático Regional del Noreste) reunión anual.
Los recursos están disponibles aquí y, en particular, quiero resaltar la lista de recursos en línea, así como un puñado de perfiles de aprendizaje hipotéticos bien desarrollados que pueden ayudar a que las discusiones sobre el diseño universal y la accesibilidad sean más concretas.
Aquí hay algunos otros enlaces sobre accesibilidad y diseño inclusivo que han surgido recientemente en mis diversos feeds:
Inclusive Components es un proyecto realmente genial que apunta a mejorar la inclusión en el diseño de la interfaz web . Hay mucho sentido común en las diferentes piezas, pero me gusta este fragmento de una publicación reciente en tablas : cuando el marcado de tabla contiene contenido no tabular, se confunde con las expectativas de los usuarios ciegos. No es un diseño de página para ellos; es una tabla de datos que no tiene sentido. Si son videntes o deficientes visuales y ejecutan un lector de pantalla son ambas cosas , lo cual es posiblemente aún más confuso.
Esta publicación de blindblonde, un académico que es legalmente ciego, tiene muchísimos consejos para hacer que los carteles y las presentaciones sean más accesibles visualmente : la mayoría de las veces, las personas ponen una tonelada de texto en sus carteles y usan una fuente demasiado pequeña para que yo los use. léalo sin bloquear el cartel completo de todos los demás. En última instancia, esto significa que tengo que pedirle al presentador que me brinde una descripción general rápida de su trabajo, y que las personas tengan diferentes habilidades para debatir su trabajo de una manera concisa (y es cierto que tal vez quiera hacer preguntas o entablar una discusión, también). Sin embargo, si estoy en una sesión que tiene muchos carteles que quiero ver, no tendré suficiente tiempo para conversar con todos.
¿Tiene un enlace reciente favorito sobre accesibilidad, inclusión o diseño universal? Háganos saber en los comentarios!
Los electrodos en la cara y la mandíbula captan señales neuromusculares indetectables desencadenadas por verbalizaciones internas.
Los investigadores del MIT han desarrollado una interfaz de computadora que puede transcribir palabras que el usuario verbaliza internamente, pero que en realidad no hablan en voz alta.
El sistema consiste en un dispositivo portátil y un sistema informático asociado. Los electrodos en el dispositivo captan señales neuromusculares en la mandíbula y en la cara que se desencadenan mediante verbalizaciones internas, diciendo palabras “en tu cabeza”, pero son indetectables para el ojo humano. Las señales se alimentan a un sistema de aprendizaje automático que ha sido entrenado para correlacionar señales particulares con palabras particulares.
El dispositivo también incluye un par de auriculares de conducción ósea, que transmiten las vibraciones a través de los huesos de la cara hacia el oído interno. Debido a que no obstruyen el canal auditivo, los auriculares permiten que el sistema transmita información al usuario sin interrumpir la conversación ni interferir con la experiencia auditiva del usuario.
El dispositivo es, por lo tanto, parte de un completo sistema de computación silenciosa que permite al usuario plantear y recibir indetectablemente respuestas a problemas de computación difíciles. En uno de los experimentos de los investigadores, por ejemplo, los sujetos usaron el sistema para informar silenciosamente los movimientos de los oponentes en un juego de ajedrez y de forma silenciosa recibir respuestas recomendadas por la computadora.
“La motivación para esto fue construir un dispositivo IA, un dispositivo de aumento de inteligencia”, dice Arnav Kapur, un estudiante graduado en el MIT Media Lab, quien dirigió el desarrollo del nuevo sistema. “Nuestra idea era: ¿Podríamos tener una plataforma informática que sea más interna, que fusione humanos y máquinas de alguna manera y que se sienta como una extensión interna de nuestra propia cognición?”
“Básicamente no podemos vivir sin nuestros teléfonos celulares, nuestros dispositivos digitales”, dice Pattie Maes, profesora de artes y ciencias de los medios y asesora de tesis de Kapur. “Pero por el momento, el uso de esos dispositivos es muy perturbador. Si quiero buscar algo que sea relevante para una conversación que estoy teniendo, tengo que encontrar mi teléfono y escribir el código de acceso, abrir una aplicación y escribir una palabra clave de búsqueda, y todo requiere que cambie completamente la atención de mi entorno y las personas con las que estoy con el teléfono. Por lo tanto, mis alumnos y yo hemos estado experimentando durante mucho tiempo con nuevos factores de forma y nuevos tipos de experiencia que permiten a las personas aún beneficiarse de todos los maravillosos conocimientos y servicios que estos dispositivos nos brindan, pero hágalo de una manera que nos permita ellos permanecen en el presente “.
Los investigadores describen su dispositivo en un documento que presentaron en la conferencia ACM Intelligent User Interface de la Association for Computing Machinery. Kapur es el primer autor del artículo, Maes es el autor principal, y están acompañados por Shreyas Kapur, estudiante de pregrado en ingeniería eléctrica y ciencias de la computación.
Señales sutiles
La idea de que las verbalizaciones internas tienen correlatos físicos ha existido desde el siglo XIX, y se investigó seriamente en la década de 1950. Uno de los objetivos del movimiento de lectura rápida de la década de 1960 era eliminar la verbalización interna, o “subvocalización”, como se la conoce.
Pero la subvocalización como una interfaz de computadora es en gran parte inexplorada. El primer paso de los investigadores fue determinar qué ubicaciones en la cara son las fuentes de las señales neuromusculares más confiables. Así que llevaron a cabo experimentos en los que se les pidió a los mismos sujetos que subvocalizaran la misma serie de palabras cuatro veces, con un conjunto de 16 electrodos en diferentes localizaciones faciales cada vez.
Los investigadores escribieron el código para analizar los datos resultantes y encontraron que las señales de siete ubicaciones de electrodos particulares eran consistentemente capaces de distinguir las palabras subvocalizadas. En el documento de la conferencia, los investigadores informan un prototipo de una interfaz portátil de voz silenciosa, que se envuelve alrededor de la parte posterior del cuello como un auricular de teléfono y tiene apéndices curvos tipo tentáculo que tocan la cara en siete lugares a ambos lados de la boca y a lo largo de las mandíbulas.
Pero en los experimentos actuales, los investigadores obtienen resultados comparables usando solo cuatro electrodos a lo largo de una mandíbula, lo que debería conducir a un dispositivo portátil menos molesto.
Una vez que seleccionaron las ubicaciones de los electrodos, los investigadores comenzaron a recopilar datos sobre algunas tareas computacionales con vocabularios limitados, unas 20 palabras cada una. Una era la aritmética, en la cual el usuario subvocalizaba grandes problemas de suma o multiplicación; otra era la aplicación de ajedrez, en la cual el usuario informaría movimientos usando el sistema estándar de numeración de ajedrez.
Luego, para cada aplicación, usaron una red neuronal para encontrar correlaciones entre señales neuromusculares particulares y palabras particulares. Al igual que la mayoría de las redes neuronales, la que utilizaron los investigadores está dispuesta en capas de nodos de procesamiento simples, cada uno de los cuales está conectado a varios nodos en las capas superiores e inferiores. Los datos se introducen en la capa inferior, cuyos nodos la procesan y pasan a la siguiente capa, cuyos nodos la procesan y pasan a la siguiente capa, y así sucesivamente. El rendimiento de los rendimientos finales de la capa es el resultado de alguna tarea de clasificación.
La configuración básica del sistema de los investigadores incluye una red neuronal entrenada para identificar palabras subvocalizadas a partir de señales neuromusculares, pero puede personalizarse para un usuario particular a través de un proceso que reacondiciona solo las dos últimas capas.
Cuestiones prácticas
Utilizando la interfaz prototipo portátil, los investigadores realizaron un estudio de usabilidad en el que 10 sujetos pasaron unos 15 minutos cada uno personalizando la aplicación aritmética a su propia neurofisiología, y luego pasaron otros 90 minutos usándolo para ejecutar cálculos. En ese estudio, el sistema tenía una precisión de transcripción promedio de aproximadamente el 92 por ciento.
Pero, Kapur dice, el rendimiento del sistema debería mejorar con más datos de capacitación, que podrían recopilarse durante su uso ordinario. Aunque no ha cruzado los números, estima que el sistema mejor entrenado que usa para las demostraciones tiene una tasa de precisión más alta que la informada en el estudio de usabilidad.
En el trabajo en curso, los investigadores están recopilando una gran cantidad de datos en conversaciones más elaboradas, con la esperanza de crear aplicaciones con vocabularios mucho más expansivos. “Estamos en el medio de recopilar datos, y los resultados se ven bien”, dice Kapur. “Creo que lograremos una conversación completa algún día”.
“Creo que están rebajando un poco lo que creo que es un potencial real para el trabajo”, dice Thad Starner, profesor de la Facultad de informática de Georgia Tech. “Como, digamos, controlar los aviones en la pista del aeropuerto de Hartsfield aquí en Atlanta. Tienes ruido de avión a tu alrededor, estás usando estas grandes protecciones para los oídos: ¿no sería genial comunicarse con la voz en un entorno donde normalmente no podrías? Puede imaginar todas estas situaciones en las que tiene un entorno de alto ruido, como la cabina de vuelo de un portaaviones, o incluso lugares con mucha maquinaria, como una planta de energía o una imprenta. Este es un sistema que tendría sentido, especialmente porque a menudo en este tipo de situaciones las personas ya están usando equipo de protección. Por ejemplo, si eres un piloto de combate,
“La otra cosa donde esto es extremadamente útil es operaciones especiales”, agrega Starner. “Hay muchos lugares en los que no es un entorno ruidoso, sino un entorno silencioso. Mucho tiempo, las personas con operaciones especiales tienen gestos con las manos, pero no siempre se pueden ver. ¿No sería genial tener un discurso silencioso para la comunicación entre estas personas? El último es personas con discapacidades en las que no pueden vocalizar normalmente. Por ejemplo, Roger Ebert no tenía la capacidad de hablar más porque perdió la mandíbula debido al cáncer. ¿Podría hacer este tipo de discurso silencioso y luego tener un sintetizador que diga las palabras?
En el verano de 2018, WCAG 2.0 se actualizará a la versión 2.1 con nuevas pautas para hacer que los sitios web sean aún más accesibles. En este post intentaré dar explicaciones simples de estas pautas junto con pensamientos y consejos sobre cómo seguirlas.
WCAG significa Pautas de Accesibilidad para el Contenido Web y es un conjunto internacional establecido de pautas para contenido accesible en Internet. Estas pautas son principalmente para personas con diversas discapacidades, pero también para diferentes dispositivos utilizados para explorar sitios web.
WCAG es mantenido por el World Wide Web Consortium (W3C), la principal organización de estándares para Internet. La versión actual (WCAG 2.0) se publicó en 2008 y se convirtió en norma ISO ( ISO/IEC 40500:2012) en 2012.
En el verano de 2018, WCAG 2.1 se lanzará con diecisiete nuevas pautas que se enfocarán en mejorar la accesibilidad para usuarios con discapacidades cognitivas y para usuarios que navegan por sitios web en dispositivos móviles como tabletas y teléfonos inteligentes.
Descripción general de WCAG 2.0
WCAG 2.0 consta de las siguientes doce pautas divididas en cuatro categorías diferentes:
Perceptible
Proporcionar alternativas de texto para contenido no textual como imágenes
Ofrecer subtítulos o resúmenes de texto para audio y video
Estructura el contenido para que se identifique mediante programación y escríbalo para que se presente de diferentes maneras
Diseñe contenido para que sea fácil de leer y escuchar (buen contraste, control de volumen)
Operable
Toda la funcionalidad debe estar disponible solo con un teclado
Debe haber suficiente tiempo para leer el contenido y realizar tareas deseadas
Evite diseñar contenido que pueda causar convulsiones
Ayude a los usuarios a navegar y encontrar contenido tanto como sea posible
Comprensible
Escribir texto fácil de leer con tecnologías de asistencia en mente
Diseñar contenido y la interfaz para comportarse de maneras predecibles
Ayude a los usuarios a evitar y corregir errores al ingresar información
Robusto
Proporcione compatibilidad máxima con tantos navegadores web como sea posible
Cada una de las pautas en WCAG tiene criterios de éxito medibles divididos en los niveles de A (más bajo), AA y AAA (más alto). Más A es igual a más demandas, pero mejor accesibilidad cuando se cumplen.
Nota: Algunas pautas solo tienen uno o dos niveles de criterios de éxito. Algunos tienen los niveles A y AAA, pero no tienen AA.
Para obtener más información acerca de estas doce directrices, eche un vistazo a WCAG 2.0 at a Glance by W3C.
Nuevas pautas en WCAG 2.1
Antes de explicar las nuevas pautas en WCAG 2.1, debe saber que WCAG 2.1 es compatible con WCAG 2.0. Esto significa que:
Las categorías y directrices anteriores aún se aplican
La numeración aún se aplica
Los principios básicos todavía se aplican
Los tres niveles de criterios de éxito (A, AA, AAA) aún se aplican
Entonces, aquí están las nuevas pautas a partir de febrero de 2018. La documentación detallada del W3C se puede encontrar en w3.org/tr/wcag21
1.3.4 Identificar el propósito común (AA)
Para seguir esta directriz, el significado de cada campo de entrada debe poder determinarse programáticamente. En otras palabras, una parte del código debe poder decir qué se espera que ingrese un usuario o cuál es el significado de una parte de la información ingresada.
Hacer esto correctamente hará posible que el navegador de un usuario complete automáticamente los campos de entrada basados en datos previamente ingresados por el usuario. ¡Estupendo! Tener que ingresar menos entradas siempre es bueno.
Técnicamente, esto tiene que ser cierto si:
La implementación se realiza utilizando tecnologías para identificar el significado esperado de los datos de entrada.
El campo de entrada utiliza el marcado Autofill como en el siguiente fragmento de código
Esta guía mejora la accesibilidad para usuarios con discapacidades cognitivas que les resulta difícil leer e ingresar texto. También mejora la accesibilidad para los usuarios que no conocen bien el idioma del sitio web.
1.3.5 Identificar Propósito (AAA)
Esta guía dice que el propósito de los componentes de la interfaz, los íconos y ciertas secciones debe poder identificarse mediante programación.
Por ejemplo: el usuario no debería simplemente entender que un botón es un botón. Él o ella debe entender lo que hace el botón, cuál es su propósito.
HTML siempre debe escribirse correctamente, de modo que las tecnologías de asistencia, como los lectores de pantalla, puedan hacer cosas como:
Identifique secciones como encabezado, navegación, área de contenido principal, etc. para facilitar la navegación.
Proporcione alternativas de texto a los iconos, que de otra manera pueden sonar raros cuando se leen a los usuarios.
Diferenciar entre diferentes subtítulos como subtítulos H2, H3 y H3 para encontrar contenido deseado más rápido.
Seguir esta guía mejorará la accesibilidad para los usuarios de tecnologías de asistencia, como lectores de pantalla.
1.4.10 Reflow (AA)
Esta guía establece que los usuarios deben poder navegar por un sitio web utilizando una pantalla de 320 píxeles de ancho sin tener que desplazarse horizontalmente. En otras palabras, su sitio web debe ser responsive.
¿Por qué un ancho de 320 píxeles? Probablemente porque este es el ancho de dispositivo más pequeño de una gran cantidad de teléfonos inteligentes populares.
Consejo: ¿Curioso acerca de qué tamaños de pantalla son populares? Echa un vistazo ascreensiz.es .
Seguir esta guía mejorará la accesibilidad para todos los usuarios que visiten su sitio web en un teléfono inteligente. También beneficiará a los usuarios con discapacidad visual que definitivamente ampliarán (hasta 400%) en los navegadores de escritorio.
Nota: es aceptable permitir el desplazamiento horizontal de contenido que a menudo lo requiere como mapas, tablas de datos con muchas columnas y diagramas anchos.
1.4.11 Contraste sin texto (AA)
Tener un alto contraste entre las piezas de texto y sus fondos es una de las mejores y más importantes cosas que puede hacer para garantizar un gran acceso a su sitio web.
En esta guía, el requisito de alto contraste se extiende desde el texto regular de la página hasta el texto en los componentes de la interfaz (botones), así como también los colores utilizados en el contenido no textual (infografías y diagramas).
Seguir esta guía mejorará la accesibilidad para todos los usuarios con diferentes tipos de discapacidad visual.
1.4.12 Espaciado de texto (AA)
Para seguir esta directriz, las distancias entre párrafos, filas, palabras y caracteres deben poder aumentarse a ciertos valores sin que se pierda la funcionalidad o la pérdida de contenido.
Fallar en esto podría resultar en la superposición de fragmentos de texto, por lo que no se puede leer. También podría resultar en que los componentes (enlaces o botones) se muevan a lugares donde no se pueden interactuar (fuera de la ventana gráfica o detrás de otros elementos).
Consejo: Evite establecer alturas fijas en los elementos que contienen texto. Cuando el texto necesita más espacio, debe poder crecer verticalmente y presionar hacia abajo el contenido.
Seguir esta guía mejorará la accesibilidad para usuarios con discapacidad visual y dislexia.
1.4.13 Contenido en vuelo estacionario o enfoque (AA)
Esta guía establece que si los usuarios activan el contenido en forma de ventana modal, información sobre herramientas o un componente similar, deben ser capaces de:
Descarta el contenido sin mover el cursor del mouse o el foco del teclado actual (por ejemplo, presionando la tecla Esc).
Desplácese hasta el contenido (moviendo así el cursor del mouse) sin hacer desaparecer el contenido (cuando se mueve el cursor).
Descartar el contenido únicamente en sus propios términos.
Seguir esta guía mejorará la accesibilidad para los usuarios con discapacidad visual. Especialmente para aquellos usuarios que pueden acercarse cuando navegan por un sitio web y tienen que desplazarse al contenido que aparece fuera de la ventana gráfica.
2.2.6 Tiempos de espera (AAA)
Para seguir esta directriz, los usuarios de su sitio web deben ser informados si cualquier período de inactividad puede conducir a la pérdida de datos. Sin embargo, los usuarios no tienen que ser informados de esto si los datos se guardan por más de 20 horas después de su última interacción.
Seguir esta guía mejorará la accesibilidad para los usuarios con discapacidades cognitivas que necesitan más tiempo para completar las tareas deseadas.
2.2.7 Animación de Interacciones (AAA)
Esta guía establece que las animaciones desencadenadas por la interacción deben poder desactivarse a menos que las animaciones sean esenciales para la funcionalidad o el contenido presentado.
Seguir esta guía mejorará la accesibilidad para los usuarios que son susceptibles a las convulsiones debido al movimiento.
2.4.11 Accesos directos de teclas de caracteres (A)
Esta guía dice que si un sitio web admite atajos de teclado en forma de caracteres individuales como letras, símbolos, números o signos de puntuación, se debe cumplir una de las siguientes tres condiciones:
Los accesos directos se pueden desactivar
Los accesos directos se pueden cambiar para requerir también presionar teclas del teclado como Ctrl, Alt y Cmd
Un atajo para un elemento determinado solo está activo cuando ese elemento tiene foco
Seguir esta guía mejorará la accesibilidad para las personas que usan la entrada de voz para navegar en un sitio web. También mejorará la accesibilidad para los usuarios que tienen temblores de manos y presionan fácilmente las teclas equivocadas del teclado.
2.4.12 Etiqueta en Nombre (A)
Para tener éxito con esta guía, el texto que se muestra en los componentes de la interfaz como botones debe ser capaz de:
Leer a los usuarios de tecnologías de asistencia como lectores de pantalla
Activado por comandos de voz de usuarios que aprovechan el software de reconocimiento de voz
Esto es fácil de lograr si usa elementos HTML como etiquetas y botones de anclaje correctamente y escribe etiquetas de texto explicativas.
Consejo: Si reemplaza el texto con un ícono en un componente de la interfaz, aún puede hacer que un lector de pantalla lea el texto a su usuario con la ayuda del atributo aria-label .
Seguir esta guía mejorará la accesibilidad para las personas con discapacidad visual que usan lectores de pantalla. También mejorará la accesibilidad para los usuarios que utilizan la entrada de voz para navegar por un sitio web.
2.5.1 Gestos del puntero (A)
Esta guía establece que las acciones realizadas usando gestos complejos, como el acercamiento y deslizamiento de pellizco, también deben poder realizarse con gestos más simples, como un solo toque, dos toques y presiones largas.
Recuerde: incluso si los usuarios tienen grandes habilidades motoras, la posibilidad de realizar gestos complejos puede no ser obvia para ellos.
Seguir esta guía mejorará la accesibilidad para usuarios con habilidades motoras limitadas o dedos insuficientes (!) Para gestos multitáctiles.
2.5.2 Cancelación del puntero (A)
Esta guía dice que cuando interactúa con una pantalla haciendo clic, tocando y presionando por lo menos una de las siguientes afirmaciones debe ser verdadero:
La funcionalidad disparada no ocurre en el evento hacia abajo.
La funcionalidad se activa en el evento ascendente y es posible cancelarlo antes de que ocurra el evento ascendente o deshacerlo posteriormente.
El evento up cancela lo que sucedió en el evento final.
El desencadenamiento de la funcionalidad en el evento descendente tiene que ocurrir por alguna razón importante.
Un ejemplo del punto 2: si está usando un mouse y presiona un botón para eliminar un archivo en Dropbox, debería poder alejar el cursor del mouse del botón y soltarlo, y no debería pasar nada.
2.5.3 Tamaño objetivo (AAA)
Para tener éxito con esta guía, un elemento seleccionable debe tener un alto y ancho de al menos 44 ⨯ 44 píxeles. Sin embargo, puede ser más pequeño si:
Su funcionalidad se puede lograr a través de otro elemento seleccionable de 44 ⨯ 44 píxeles.
Está ubicado en un bloque de texto, como un enlace subrayado regular.
Su tamaño está determinado por el dispositivo y el navegador que usa el usuario (botones de opción, casillas de verificación).
Debe tener esta apariencia y tamaño en este contexto particular para que tenga sentido.
Seguir esta guía mejorará la accesibilidad para las personas que tienen temblores en las manos, dedos grandes y usan dispositivos móviles con entrada táctil (especialmente con solo una mano).
2.5.4 Mecanismos de entrada simultáneos (AAA)
Esta guía establece que nunca debe desautorizar a los usuarios a usar, cambiar entre o agregar y eliminar diferentes mecanismos de entrada como mouse, teclado, lápiz, entrada táctil o entrada de voz. Incluso si esto significa ignorar el mecanismo más común para interactuar con un cierto contenido.
Seguir esta pauta mejorará la accesibilidad para las personas con habilidades motoras limitadas que prefieren o deben usar un mecanismo de entrada determinado, incluso cuando no es común. Por ejemplo: usar un teclado o mouse al operar una tableta.
2.6.1 Actuación de movimiento (A)
Para seguir esta guía, la funcionalidad que se desencadena moviendo el dispositivo móvil también debe poder activarse al interactuar con componentes de la interfaz como botones y controles deslizantes.
Las respuestas al movimiento (accidental) también deben poder desactivarse, a menos que:
El movimiento es compatible a través de una interfaz accesible.
El movimiento es esencial para la funcionalidad.
La característica de deshacer para usar en las aplicaciones nativas de iOS y Android podría ser muy problemática si tienes temblores en las manos. Afortunadamente, no lo he visto usar en ningún sitio web.
Seguir esta guía mejorará la accesibilidad para los usuarios que montan sus tabletas y teléfonos inteligentes en sus sillas de ruedas o tienen problemas para trasladarlos debido a limitaciones motrices o porque sus manos están ocupadas en este momento.
2.6.2 Orientación (AA)
Esta guía establece que no debe forzar a los usuarios de dispositivos móviles a que mantengan sus dispositivos dentro de ellos ni los giren a una orientación determinada para poder incluir parte del contenido de un sitio web.
Al igual que 2.6.1 Motion Actuation, seguir esta guía mejorará la accesibilidad para los usuarios que montan sus tabletas y teléfonos inteligentes en sus sillas de ruedas o tienen problemas para rotarlos debido a limitaciones motrices o porque sus manos están ocupadas en este momento.
3.2.6 Cambios de estado (AA)
Para seguir esta directriz, el contenido que se actualiza dinámicamente debe notificarse a los usuarios de tecnologías de asistencia (como lectores de pantalla) sin obtener un enfoque visual.
Por ejemplo: estás navegando en un sitio web de noticias con un feed de Twitter en la parte superior del sitio. Sería exasperante si cada vez que aparece un nuevo tweet, automáticamente se desplaza hacia arriba para ver el nuevo tweet.
Una excelente manera de resolver esto para los usuarios de lectores de pantalla es usar las ARIA Live Regions . Aquí hay tres fragmentos de código que explican cómo funciona:
<div role="status" aria-live="off">
When this text is updated,
users with screen readers
will not be notified at all.
</div>
<div role="status" aria-live="polite">
When this text is updated,
users with screen readers
will be notified if they
aren't doing anything else.
</div>
<div role="status" aria-live="assertive">
When this text is updated,
users with screen readers
will be notified immediately
regardless of what they're doing.
</div>
Seguir esta guía mejorará la accesibilidad para los usuarios con discapacidad visual, especialmente para aquellos que utilizan lectores de pantalla y es probable que amplíen el sitio web.
Wrapping up
Phew, esa fue la última de las nuevas directrices para WCAG 2.1. ¿Mi publicación no está actualizada o contiene algunos errores? Por favor, házmelo saber en la sección de comentarios y lo corregiré.
Finalmente, recuerde que tener una gran accesibilidad en su sitio web mejorará la experiencia del usuario para todos los usuarios.