Este mes he tenido la suerte de co-presentar sobre Diseño Universal para el Aprendizaje con Kirsten Behling, Erin DeSilva, Lance Eaton, Kelsey Hall, Marisha Marks, Andrea Milligan, Adam Nemeroff y Marcie Saboya en el NERCOMP (programa informático Regional del Noreste) reunión anual.
Los recursos están disponibles aquí y, en particular, quiero resaltar la lista de recursos en línea, así como un puñado de perfiles de aprendizaje hipotéticos bien desarrollados que pueden ayudar a que las discusiones sobre el diseño universal y la accesibilidad sean más concretas.
Aquí hay algunos otros enlaces sobre accesibilidad y diseño inclusivo que han surgido recientemente en mis diversos feeds:
Inclusive Components es un proyecto realmente genial que apunta a mejorar la inclusión en el diseño de la interfaz web . Hay mucho sentido común en las diferentes piezas, pero me gusta este fragmento de una publicación reciente en tablas : cuando el marcado de tabla contiene contenido no tabular, se confunde con las expectativas de los usuarios ciegos. No es un diseño de página para ellos; es una tabla de datos que no tiene sentido. Si son videntes o deficientes visuales y ejecutan un lector de pantalla son ambas cosas , lo cual es posiblemente aún más confuso.
Esta publicación de blindblonde, un académico que es legalmente ciego, tiene muchísimos consejos para hacer que los carteles y las presentaciones sean más accesibles visualmente : la mayoría de las veces, las personas ponen una tonelada de texto en sus carteles y usan una fuente demasiado pequeña para que yo los use. léalo sin bloquear el cartel completo de todos los demás. En última instancia, esto significa que tengo que pedirle al presentador que me brinde una descripción general rápida de su trabajo, y que las personas tengan diferentes habilidades para debatir su trabajo de una manera concisa (y es cierto que tal vez quiera hacer preguntas o entablar una discusión, también). Sin embargo, si estoy en una sesión que tiene muchos carteles que quiero ver, no tendré suficiente tiempo para conversar con todos.
¿Tiene un enlace reciente favorito sobre accesibilidad, inclusión o diseño universal? Háganos saber en los comentarios!
Los electrodos en la cara y la mandíbula captan señales neuromusculares indetectables desencadenadas por verbalizaciones internas.
Los investigadores del MIT han desarrollado una interfaz de computadora que puede transcribir palabras que el usuario verbaliza internamente, pero que en realidad no hablan en voz alta.
El sistema consiste en un dispositivo portátil y un sistema informático asociado. Los electrodos en el dispositivo captan señales neuromusculares en la mandíbula y en la cara que se desencadenan mediante verbalizaciones internas, diciendo palabras “en tu cabeza”, pero son indetectables para el ojo humano. Las señales se alimentan a un sistema de aprendizaje automático que ha sido entrenado para correlacionar señales particulares con palabras particulares.
El dispositivo también incluye un par de auriculares de conducción ósea, que transmiten las vibraciones a través de los huesos de la cara hacia el oído interno. Debido a que no obstruyen el canal auditivo, los auriculares permiten que el sistema transmita información al usuario sin interrumpir la conversación ni interferir con la experiencia auditiva del usuario.
El dispositivo es, por lo tanto, parte de un completo sistema de computación silenciosa que permite al usuario plantear y recibir indetectablemente respuestas a problemas de computación difíciles. En uno de los experimentos de los investigadores, por ejemplo, los sujetos usaron el sistema para informar silenciosamente los movimientos de los oponentes en un juego de ajedrez y de forma silenciosa recibir respuestas recomendadas por la computadora.
“La motivación para esto fue construir un dispositivo IA, un dispositivo de aumento de inteligencia”, dice Arnav Kapur, un estudiante graduado en el MIT Media Lab, quien dirigió el desarrollo del nuevo sistema. “Nuestra idea era: ¿Podríamos tener una plataforma informática que sea más interna, que fusione humanos y máquinas de alguna manera y que se sienta como una extensión interna de nuestra propia cognición?”
“Básicamente no podemos vivir sin nuestros teléfonos celulares, nuestros dispositivos digitales”, dice Pattie Maes, profesora de artes y ciencias de los medios y asesora de tesis de Kapur. “Pero por el momento, el uso de esos dispositivos es muy perturbador. Si quiero buscar algo que sea relevante para una conversación que estoy teniendo, tengo que encontrar mi teléfono y escribir el código de acceso, abrir una aplicación y escribir una palabra clave de búsqueda, y todo requiere que cambie completamente la atención de mi entorno y las personas con las que estoy con el teléfono. Por lo tanto, mis alumnos y yo hemos estado experimentando durante mucho tiempo con nuevos factores de forma y nuevos tipos de experiencia que permiten a las personas aún beneficiarse de todos los maravillosos conocimientos y servicios que estos dispositivos nos brindan, pero hágalo de una manera que nos permita ellos permanecen en el presente “.
Los investigadores describen su dispositivo en un documento que presentaron en la conferencia ACM Intelligent User Interface de la Association for Computing Machinery. Kapur es el primer autor del artículo, Maes es el autor principal, y están acompañados por Shreyas Kapur, estudiante de pregrado en ingeniería eléctrica y ciencias de la computación.
Señales sutiles
La idea de que las verbalizaciones internas tienen correlatos físicos ha existido desde el siglo XIX, y se investigó seriamente en la década de 1950. Uno de los objetivos del movimiento de lectura rápida de la década de 1960 era eliminar la verbalización interna, o “subvocalización”, como se la conoce.
Pero la subvocalización como una interfaz de computadora es en gran parte inexplorada. El primer paso de los investigadores fue determinar qué ubicaciones en la cara son las fuentes de las señales neuromusculares más confiables. Así que llevaron a cabo experimentos en los que se les pidió a los mismos sujetos que subvocalizaran la misma serie de palabras cuatro veces, con un conjunto de 16 electrodos en diferentes localizaciones faciales cada vez.
Los investigadores escribieron el código para analizar los datos resultantes y encontraron que las señales de siete ubicaciones de electrodos particulares eran consistentemente capaces de distinguir las palabras subvocalizadas. En el documento de la conferencia, los investigadores informan un prototipo de una interfaz portátil de voz silenciosa, que se envuelve alrededor de la parte posterior del cuello como un auricular de teléfono y tiene apéndices curvos tipo tentáculo que tocan la cara en siete lugares a ambos lados de la boca y a lo largo de las mandíbulas.
Pero en los experimentos actuales, los investigadores obtienen resultados comparables usando solo cuatro electrodos a lo largo de una mandíbula, lo que debería conducir a un dispositivo portátil menos molesto.
Una vez que seleccionaron las ubicaciones de los electrodos, los investigadores comenzaron a recopilar datos sobre algunas tareas computacionales con vocabularios limitados, unas 20 palabras cada una. Una era la aritmética, en la cual el usuario subvocalizaba grandes problemas de suma o multiplicación; otra era la aplicación de ajedrez, en la cual el usuario informaría movimientos usando el sistema estándar de numeración de ajedrez.
Luego, para cada aplicación, usaron una red neuronal para encontrar correlaciones entre señales neuromusculares particulares y palabras particulares. Al igual que la mayoría de las redes neuronales, la que utilizaron los investigadores está dispuesta en capas de nodos de procesamiento simples, cada uno de los cuales está conectado a varios nodos en las capas superiores e inferiores. Los datos se introducen en la capa inferior, cuyos nodos la procesan y pasan a la siguiente capa, cuyos nodos la procesan y pasan a la siguiente capa, y así sucesivamente. El rendimiento de los rendimientos finales de la capa es el resultado de alguna tarea de clasificación.
La configuración básica del sistema de los investigadores incluye una red neuronal entrenada para identificar palabras subvocalizadas a partir de señales neuromusculares, pero puede personalizarse para un usuario particular a través de un proceso que reacondiciona solo las dos últimas capas.
Cuestiones prácticas
Utilizando la interfaz prototipo portátil, los investigadores realizaron un estudio de usabilidad en el que 10 sujetos pasaron unos 15 minutos cada uno personalizando la aplicación aritmética a su propia neurofisiología, y luego pasaron otros 90 minutos usándolo para ejecutar cálculos. En ese estudio, el sistema tenía una precisión de transcripción promedio de aproximadamente el 92 por ciento.
Pero, Kapur dice, el rendimiento del sistema debería mejorar con más datos de capacitación, que podrían recopilarse durante su uso ordinario. Aunque no ha cruzado los números, estima que el sistema mejor entrenado que usa para las demostraciones tiene una tasa de precisión más alta que la informada en el estudio de usabilidad.
En el trabajo en curso, los investigadores están recopilando una gran cantidad de datos en conversaciones más elaboradas, con la esperanza de crear aplicaciones con vocabularios mucho más expansivos. “Estamos en el medio de recopilar datos, y los resultados se ven bien”, dice Kapur. “Creo que lograremos una conversación completa algún día”.
“Creo que están rebajando un poco lo que creo que es un potencial real para el trabajo”, dice Thad Starner, profesor de la Facultad de informática de Georgia Tech. “Como, digamos, controlar los aviones en la pista del aeropuerto de Hartsfield aquí en Atlanta. Tienes ruido de avión a tu alrededor, estás usando estas grandes protecciones para los oídos: ¿no sería genial comunicarse con la voz en un entorno donde normalmente no podrías? Puede imaginar todas estas situaciones en las que tiene un entorno de alto ruido, como la cabina de vuelo de un portaaviones, o incluso lugares con mucha maquinaria, como una planta de energía o una imprenta. Este es un sistema que tendría sentido, especialmente porque a menudo en este tipo de situaciones las personas ya están usando equipo de protección. Por ejemplo, si eres un piloto de combate,
“La otra cosa donde esto es extremadamente útil es operaciones especiales”, agrega Starner. “Hay muchos lugares en los que no es un entorno ruidoso, sino un entorno silencioso. Mucho tiempo, las personas con operaciones especiales tienen gestos con las manos, pero no siempre se pueden ver. ¿No sería genial tener un discurso silencioso para la comunicación entre estas personas? El último es personas con discapacidades en las que no pueden vocalizar normalmente. Por ejemplo, Roger Ebert no tenía la capacidad de hablar más porque perdió la mandíbula debido al cáncer. ¿Podría hacer este tipo de discurso silencioso y luego tener un sintetizador que diga las palabras?
Investigadores de la Universidad Politécnica de Madrid han desarrollado una aplicación para el móvil que facilita la integración en las aulas de las personas con discapacidad auditiva. El prototipo es capaz de subtitular las clases y grabarlas en vídeo para su posterior revisión.
Cerca de 32 millones de niños sufren sordera en el mundo y en España hay casi un millón de personas con problemas de hipoacusia, aunque en la mayor parte de los casos, son personas que tienen más de 65 años. Sin embargo, cuando los estudiantes con algún tipo de discapacidad auditiva llegan a las aulas, el objetivo debe ser que puedan seguir los estudios con normalidad sin verse discriminados respecto al resto de sus compañeros.
Con esa finalidad nace Breaking Sound Barriers, una app diseñada para romper barreras en el entorno educativo y en cuya creación y desarrollo han colaborado investigadores de la Universidad Politécnica de Madrid (UPM).
Este prototipo de entorno educativo es capaz de subtitular la clase para estudiantes con discapacidad auditiva
La aplicación, que busca facilitar a los jóvenes el seguimiento de una clase, ha sido desarrollada dentro del grupo Mercator del Instituto de Investigación del Automóvil (INSIA) y del departamento de Inteligencia Artificial de la Escuela Técnica Superior de Ingenieros Informáticos de la UPM.
“Consiste en un prototipo de entorno educativo capaz de subtitular la clase para estudiantes con discapacidad auditiva. La clase se emite en vídeo y queda guardada para que los alumnos puedan consultarla en el futuro, así como hacer preguntas al profesor y a los compañeros. Además, el sistema permite la gestión de diversas asignaturas y salas de impartición”, explica Francisco Serradilla, uno de los investigadores de la UPM que han participado en su desarrollo.
Totalmente personalizable, Breaking Sound Barriers permite el reconocimiento de voz en múltiples idiomas, facilitando al alumno la posibilidad de realizar preguntas y respuestas, y de recibir el contenido expuesto por el profesor a través de imágenes y subtítulos.
“Esta última funcionalidad es la más demandada dado que muchos estudiantes con algún tipo de discapacidad auditiva saben leer los labios, pero en una clase pueden darse muchas situaciones y momentos en los que el profesor no está mirando directamente al alumno”, explica Serradilla.
Un repositorio de apuntes
La aplicación funciona también como un repositorio de apuntes que permite establecer filtros y acceder a un foro. Para poder utilizar la aplicación, tanto los alumnos como los profesores deben descargarla en sus tablets o smartphones. “Contar con una herramienta como esta también es útil para el profesor, puesto que facilita gestionar alumnos, salas y asignaturas; realizar preguntas; emitir subtítulos y acceder al foro, entre otras funcionalidades”, añade.
Breaking Sound Barriers ha sido desarrollada en uno de los LABS del Programa Talentum de Telefónica. Por su parte, Ericsson y la Fundación Adecco también han participado en este programa que busca impulsar el talento joven.
El siguiente paso para el equipo de investigadores es realizar pilotos más amplios para optimizar el funcionamiento y rendimiento de la aplicación. “Queremos también centrarnos en el desarrollo de una app más ligera que centrada solo en la subtitulación de las clases, la función que hasta ahora parece ser la más demandada”, concluye Serradilla.
En el verano de 2018, WCAG 2.0 se actualizará a la versión 2.1 con nuevas pautas para hacer que los sitios web sean aún más accesibles. En este post intentaré dar explicaciones simples de estas pautas junto con pensamientos y consejos sobre cómo seguirlas.
WCAG significa Pautas de Accesibilidad para el Contenido Web y es un conjunto internacional establecido de pautas para contenido accesible en Internet. Estas pautas son principalmente para personas con diversas discapacidades, pero también para diferentes dispositivos utilizados para explorar sitios web.
WCAG es mantenido por el World Wide Web Consortium (W3C), la principal organización de estándares para Internet. La versión actual (WCAG 2.0) se publicó en 2008 y se convirtió en norma ISO ( ISO/IEC 40500:2012) en 2012.
En el verano de 2018, WCAG 2.1 se lanzará con diecisiete nuevas pautas que se enfocarán en mejorar la accesibilidad para usuarios con discapacidades cognitivas y para usuarios que navegan por sitios web en dispositivos móviles como tabletas y teléfonos inteligentes.
Descripción general de WCAG 2.0
WCAG 2.0 consta de las siguientes doce pautas divididas en cuatro categorías diferentes:
Perceptible
Proporcionar alternativas de texto para contenido no textual como imágenes
Ofrecer subtítulos o resúmenes de texto para audio y video
Estructura el contenido para que se identifique mediante programación y escríbalo para que se presente de diferentes maneras
Diseñe contenido para que sea fácil de leer y escuchar (buen contraste, control de volumen)
Operable
Toda la funcionalidad debe estar disponible solo con un teclado
Debe haber suficiente tiempo para leer el contenido y realizar tareas deseadas
Evite diseñar contenido que pueda causar convulsiones
Ayude a los usuarios a navegar y encontrar contenido tanto como sea posible
Comprensible
Escribir texto fácil de leer con tecnologías de asistencia en mente
Diseñar contenido y la interfaz para comportarse de maneras predecibles
Ayude a los usuarios a evitar y corregir errores al ingresar información
Robusto
Proporcione compatibilidad máxima con tantos navegadores web como sea posible
Cada una de las pautas en WCAG tiene criterios de éxito medibles divididos en los niveles de A (más bajo), AA y AAA (más alto). Más A es igual a más demandas, pero mejor accesibilidad cuando se cumplen.
Nota: Algunas pautas solo tienen uno o dos niveles de criterios de éxito. Algunos tienen los niveles A y AAA, pero no tienen AA.
Para obtener más información acerca de estas doce directrices, eche un vistazo a WCAG 2.0 at a Glance by W3C.
Nuevas pautas en WCAG 2.1
Antes de explicar las nuevas pautas en WCAG 2.1, debe saber que WCAG 2.1 es compatible con WCAG 2.0. Esto significa que:
Las categorías y directrices anteriores aún se aplican
La numeración aún se aplica
Los principios básicos todavía se aplican
Los tres niveles de criterios de éxito (A, AA, AAA) aún se aplican
Entonces, aquí están las nuevas pautas a partir de febrero de 2018. La documentación detallada del W3C se puede encontrar en w3.org/tr/wcag21
1.3.4 Identificar el propósito común (AA)
Para seguir esta directriz, el significado de cada campo de entrada debe poder determinarse programáticamente. En otras palabras, una parte del código debe poder decir qué se espera que ingrese un usuario o cuál es el significado de una parte de la información ingresada.
Hacer esto correctamente hará posible que el navegador de un usuario complete automáticamente los campos de entrada basados en datos previamente ingresados por el usuario. ¡Estupendo! Tener que ingresar menos entradas siempre es bueno.
Técnicamente, esto tiene que ser cierto si:
La implementación se realiza utilizando tecnologías para identificar el significado esperado de los datos de entrada.
El campo de entrada utiliza el marcado Autofill como en el siguiente fragmento de código
Esta guía mejora la accesibilidad para usuarios con discapacidades cognitivas que les resulta difícil leer e ingresar texto. También mejora la accesibilidad para los usuarios que no conocen bien el idioma del sitio web.
1.3.5 Identificar Propósito (AAA)
Esta guía dice que el propósito de los componentes de la interfaz, los íconos y ciertas secciones debe poder identificarse mediante programación.
Por ejemplo: el usuario no debería simplemente entender que un botón es un botón. Él o ella debe entender lo que hace el botón, cuál es su propósito.
HTML siempre debe escribirse correctamente, de modo que las tecnologías de asistencia, como los lectores de pantalla, puedan hacer cosas como:
Identifique secciones como encabezado, navegación, área de contenido principal, etc. para facilitar la navegación.
Proporcione alternativas de texto a los iconos, que de otra manera pueden sonar raros cuando se leen a los usuarios.
Diferenciar entre diferentes subtítulos como subtítulos H2, H3 y H3 para encontrar contenido deseado más rápido.
Seguir esta guía mejorará la accesibilidad para los usuarios de tecnologías de asistencia, como lectores de pantalla.
1.4.10 Reflow (AA)
Esta guía establece que los usuarios deben poder navegar por un sitio web utilizando una pantalla de 320 píxeles de ancho sin tener que desplazarse horizontalmente. En otras palabras, su sitio web debe ser responsive.
¿Por qué un ancho de 320 píxeles? Probablemente porque este es el ancho de dispositivo más pequeño de una gran cantidad de teléfonos inteligentes populares.
Consejo: ¿Curioso acerca de qué tamaños de pantalla son populares? Echa un vistazo ascreensiz.es .
Seguir esta guía mejorará la accesibilidad para todos los usuarios que visiten su sitio web en un teléfono inteligente. También beneficiará a los usuarios con discapacidad visual que definitivamente ampliarán (hasta 400%) en los navegadores de escritorio.
Nota: es aceptable permitir el desplazamiento horizontal de contenido que a menudo lo requiere como mapas, tablas de datos con muchas columnas y diagramas anchos.
1.4.11 Contraste sin texto (AA)
Tener un alto contraste entre las piezas de texto y sus fondos es una de las mejores y más importantes cosas que puede hacer para garantizar un gran acceso a su sitio web.
En esta guía, el requisito de alto contraste se extiende desde el texto regular de la página hasta el texto en los componentes de la interfaz (botones), así como también los colores utilizados en el contenido no textual (infografías y diagramas).
Seguir esta guía mejorará la accesibilidad para todos los usuarios con diferentes tipos de discapacidad visual.
1.4.12 Espaciado de texto (AA)
Para seguir esta directriz, las distancias entre párrafos, filas, palabras y caracteres deben poder aumentarse a ciertos valores sin que se pierda la funcionalidad o la pérdida de contenido.
Fallar en esto podría resultar en la superposición de fragmentos de texto, por lo que no se puede leer. También podría resultar en que los componentes (enlaces o botones) se muevan a lugares donde no se pueden interactuar (fuera de la ventana gráfica o detrás de otros elementos).
Consejo: Evite establecer alturas fijas en los elementos que contienen texto. Cuando el texto necesita más espacio, debe poder crecer verticalmente y presionar hacia abajo el contenido.
Seguir esta guía mejorará la accesibilidad para usuarios con discapacidad visual y dislexia.
1.4.13 Contenido en vuelo estacionario o enfoque (AA)
Esta guía establece que si los usuarios activan el contenido en forma de ventana modal, información sobre herramientas o un componente similar, deben ser capaces de:
Descarta el contenido sin mover el cursor del mouse o el foco del teclado actual (por ejemplo, presionando la tecla Esc).
Desplácese hasta el contenido (moviendo así el cursor del mouse) sin hacer desaparecer el contenido (cuando se mueve el cursor).
Descartar el contenido únicamente en sus propios términos.
Seguir esta guía mejorará la accesibilidad para los usuarios con discapacidad visual. Especialmente para aquellos usuarios que pueden acercarse cuando navegan por un sitio web y tienen que desplazarse al contenido que aparece fuera de la ventana gráfica.
2.2.6 Tiempos de espera (AAA)
Para seguir esta directriz, los usuarios de su sitio web deben ser informados si cualquier período de inactividad puede conducir a la pérdida de datos. Sin embargo, los usuarios no tienen que ser informados de esto si los datos se guardan por más de 20 horas después de su última interacción.
Seguir esta guía mejorará la accesibilidad para los usuarios con discapacidades cognitivas que necesitan más tiempo para completar las tareas deseadas.
2.2.7 Animación de Interacciones (AAA)
Esta guía establece que las animaciones desencadenadas por la interacción deben poder desactivarse a menos que las animaciones sean esenciales para la funcionalidad o el contenido presentado.
Seguir esta guía mejorará la accesibilidad para los usuarios que son susceptibles a las convulsiones debido al movimiento.
2.4.11 Accesos directos de teclas de caracteres (A)
Esta guía dice que si un sitio web admite atajos de teclado en forma de caracteres individuales como letras, símbolos, números o signos de puntuación, se debe cumplir una de las siguientes tres condiciones:
Los accesos directos se pueden desactivar
Los accesos directos se pueden cambiar para requerir también presionar teclas del teclado como Ctrl, Alt y Cmd
Un atajo para un elemento determinado solo está activo cuando ese elemento tiene foco
Seguir esta guía mejorará la accesibilidad para las personas que usan la entrada de voz para navegar en un sitio web. También mejorará la accesibilidad para los usuarios que tienen temblores de manos y presionan fácilmente las teclas equivocadas del teclado.
2.4.12 Etiqueta en Nombre (A)
Para tener éxito con esta guía, el texto que se muestra en los componentes de la interfaz como botones debe ser capaz de:
Leer a los usuarios de tecnologías de asistencia como lectores de pantalla
Activado por comandos de voz de usuarios que aprovechan el software de reconocimiento de voz
Esto es fácil de lograr si usa elementos HTML como etiquetas y botones de anclaje correctamente y escribe etiquetas de texto explicativas.
Consejo: Si reemplaza el texto con un ícono en un componente de la interfaz, aún puede hacer que un lector de pantalla lea el texto a su usuario con la ayuda del atributo aria-label .
Seguir esta guía mejorará la accesibilidad para las personas con discapacidad visual que usan lectores de pantalla. También mejorará la accesibilidad para los usuarios que utilizan la entrada de voz para navegar por un sitio web.
2.5.1 Gestos del puntero (A)
Esta guía establece que las acciones realizadas usando gestos complejos, como el acercamiento y deslizamiento de pellizco, también deben poder realizarse con gestos más simples, como un solo toque, dos toques y presiones largas.
Recuerde: incluso si los usuarios tienen grandes habilidades motoras, la posibilidad de realizar gestos complejos puede no ser obvia para ellos.
Seguir esta guía mejorará la accesibilidad para usuarios con habilidades motoras limitadas o dedos insuficientes (!) Para gestos multitáctiles.
2.5.2 Cancelación del puntero (A)
Esta guía dice que cuando interactúa con una pantalla haciendo clic, tocando y presionando por lo menos una de las siguientes afirmaciones debe ser verdadero:
La funcionalidad disparada no ocurre en el evento hacia abajo.
La funcionalidad se activa en el evento ascendente y es posible cancelarlo antes de que ocurra el evento ascendente o deshacerlo posteriormente.
El evento up cancela lo que sucedió en el evento final.
El desencadenamiento de la funcionalidad en el evento descendente tiene que ocurrir por alguna razón importante.
Un ejemplo del punto 2: si está usando un mouse y presiona un botón para eliminar un archivo en Dropbox, debería poder alejar el cursor del mouse del botón y soltarlo, y no debería pasar nada.
2.5.3 Tamaño objetivo (AAA)
Para tener éxito con esta guía, un elemento seleccionable debe tener un alto y ancho de al menos 44 ⨯ 44 píxeles. Sin embargo, puede ser más pequeño si:
Su funcionalidad se puede lograr a través de otro elemento seleccionable de 44 ⨯ 44 píxeles.
Está ubicado en un bloque de texto, como un enlace subrayado regular.
Su tamaño está determinado por el dispositivo y el navegador que usa el usuario (botones de opción, casillas de verificación).
Debe tener esta apariencia y tamaño en este contexto particular para que tenga sentido.
Seguir esta guía mejorará la accesibilidad para las personas que tienen temblores en las manos, dedos grandes y usan dispositivos móviles con entrada táctil (especialmente con solo una mano).
2.5.4 Mecanismos de entrada simultáneos (AAA)
Esta guía establece que nunca debe desautorizar a los usuarios a usar, cambiar entre o agregar y eliminar diferentes mecanismos de entrada como mouse, teclado, lápiz, entrada táctil o entrada de voz. Incluso si esto significa ignorar el mecanismo más común para interactuar con un cierto contenido.
Seguir esta pauta mejorará la accesibilidad para las personas con habilidades motoras limitadas que prefieren o deben usar un mecanismo de entrada determinado, incluso cuando no es común. Por ejemplo: usar un teclado o mouse al operar una tableta.
2.6.1 Actuación de movimiento (A)
Para seguir esta guía, la funcionalidad que se desencadena moviendo el dispositivo móvil también debe poder activarse al interactuar con componentes de la interfaz como botones y controles deslizantes.
Las respuestas al movimiento (accidental) también deben poder desactivarse, a menos que:
El movimiento es compatible a través de una interfaz accesible.
El movimiento es esencial para la funcionalidad.
La característica de deshacer para usar en las aplicaciones nativas de iOS y Android podría ser muy problemática si tienes temblores en las manos. Afortunadamente, no lo he visto usar en ningún sitio web.
Seguir esta guía mejorará la accesibilidad para los usuarios que montan sus tabletas y teléfonos inteligentes en sus sillas de ruedas o tienen problemas para trasladarlos debido a limitaciones motrices o porque sus manos están ocupadas en este momento.
2.6.2 Orientación (AA)
Esta guía establece que no debe forzar a los usuarios de dispositivos móviles a que mantengan sus dispositivos dentro de ellos ni los giren a una orientación determinada para poder incluir parte del contenido de un sitio web.
Al igual que 2.6.1 Motion Actuation, seguir esta guía mejorará la accesibilidad para los usuarios que montan sus tabletas y teléfonos inteligentes en sus sillas de ruedas o tienen problemas para rotarlos debido a limitaciones motrices o porque sus manos están ocupadas en este momento.
3.2.6 Cambios de estado (AA)
Para seguir esta directriz, el contenido que se actualiza dinámicamente debe notificarse a los usuarios de tecnologías de asistencia (como lectores de pantalla) sin obtener un enfoque visual.
Por ejemplo: estás navegando en un sitio web de noticias con un feed de Twitter en la parte superior del sitio. Sería exasperante si cada vez que aparece un nuevo tweet, automáticamente se desplaza hacia arriba para ver el nuevo tweet.
Una excelente manera de resolver esto para los usuarios de lectores de pantalla es usar las ARIA Live Regions . Aquí hay tres fragmentos de código que explican cómo funciona:
<div role="status" aria-live="off">
When this text is updated,
users with screen readers
will not be notified at all.
</div>
<div role="status" aria-live="polite">
When this text is updated,
users with screen readers
will be notified if they
aren't doing anything else.
</div>
<div role="status" aria-live="assertive">
When this text is updated,
users with screen readers
will be notified immediately
regardless of what they're doing.
</div>
Seguir esta guía mejorará la accesibilidad para los usuarios con discapacidad visual, especialmente para aquellos que utilizan lectores de pantalla y es probable que amplíen el sitio web.
Wrapping up
Phew, esa fue la última de las nuevas directrices para WCAG 2.1. ¿Mi publicación no está actualizada o contiene algunos errores? Por favor, házmelo saber en la sección de comentarios y lo corregiré.
Finalmente, recuerde que tener una gran accesibilidad en su sitio web mejorará la experiencia del usuario para todos los usuarios.
Después de un piloto de un semestre de la solución Blackboard’s Ally para contenido de cursos accesibles, la Universidad de California, Berkeley está expandiendo el uso de la tecnología en todo el campus. El lanzamiento comenzará este otoño, y para el final del próximo año, el sistema proporcionará materiales de cursos accesibles a más de 40,000 estudiantes de pregrado y posgrado, según un comunicado de prensa.
Blackboard Ally ejecuta automáticamente los materiales del curso a través de una lista de verificación de accesibilidad y luego genera formatos de contenido alternativos como HTML Semántico, audio, ePub y Braille electrónico. El sistema también ofrece recomendaciones a los instructores para mejorar el acceso a los materiales de sus cursos. Una función de informe proporciona información sobre el estado de la accesibilidad del contenido a nivel de curso, así como a nivel institucional.
“Berkeley se compromete a crear entornos de aprendizaje en línea inclusivos para todos y cada uno de nuestros estudiantes”, dijo Catherine Koshland, vicerrectora de educación de pregrado, en un comunicado. “Nuestra colaboración con Blackboard ayudará a garantizar que el contenido digital sea accesible de manera constante en Berkeley, beneficiando a todos los alumnos y, en última instancia, mejorando el éxito de los estudiantes”.