Microsoft AI for Accessibility es un fondo de $ 25 millones para tecnología de discapacidad inteligente

Por Chris Davies

Microsoft AI for Accessibility es un fondo de $ 25 millones para tecnología de discapacidad inteligente

Microsoft está lanzando AI para accesibilidad, un programa de $ 25 millones para financiar formas de aprovechar la inteligencia artificial en beneficio de las personas con discapacidades. Anunciado hoy en el Build 2018, el plan de cinco años financiará y apoyará proyectos que usan AI para aliviar el impacto de ser ciego, sordo y más.

Viene inmediatamente después de AI for Earth, que Microsoft anunció el año pasado.Ese programa se centró en cómo se podría implementar la inteligencia artificial para abordar cuestiones como el cambio climático, el desarrollo agrícola y la biodiversidad. Ahora, con más de mil millones de personas con discapacidad en todo el mundo, Microsoft dice que es el turno de AI de influir.

“En Microsoft hemos estado trabajando para soluciones más sólidas como transcripción de voz a texto en tiempo real, servicios de reconocimiento visual y funcionalidad de texto predictivo”, dijo hoy Brad Smith, presidente y director jurídico de Microsoft. “Los avances de la AI como estos ofrecen un enorme potencial al permitir a las personas con discapacidades visuales, auditivas, cognitivas, de aprendizaje, movilidad y salud mental hacer más en tres escenarios específicos: Empleo, Vida moderna y Conexión humana”.

Sin embargo, a pesar de esas mejoras, la mayoría de las personas con discapacidad aún no tiene acceso a las tecnologías de asistencia. De hecho, Smith dice que solo 1 de cada 10 personas lo hace.

Durante los próximos cinco años, AI for Accessibility gastará $ 25 millones para cambiar parte de eso. Inicialmente, otorgará subsidios de tecnología a desarrolladores, universidades, organizaciones no gubernamentales y otros, que adopten “un enfoque de AI” para las tecnologías de asistencia para las personas con discapacidades. Los proyectos más prometedores obtendrán una mayor financiación, además del acceso a los propios expertos en inteligencia artificial de Microsoft.

Finalmente, Microsoft trabajará con los socios para llevar esas mejoras de inteligencia artificial a sus servicios principales. Eso contribuirá a que las tecnologías de asistencia sean lo más accesibles posible.

Ya hay indicios de cómo la AI puede hacer la diferencia. Por ejemplo, los usuarios invidentes confían en el proyecto Seeing AI para narrar el mundo que les rodea. Inicialmente comenzó como un proyecto de investigación en 2016, luego avanzo en una aplicación de teléfono inteligente que se puede descargar libremente. Microsoft Translator, mientras tanto, puede ofrecer subtítulos en tiempo real de las conversaciones para los sordos.

Microsoft está lanzando su sitio AI para accesibilidad hoy. Eso tendrá todos los detalles sobre cómo los proyectos pueden solicitar la inclusión.

Fuente slashgear.com

 

Uso de la AI para ayudar a los estudiantes con discapacidades de aprendizaje a aprender

Uso de la AI para ayudar a los estudiantes con discapacidades de aprendizaje a aprender

 

Los educadores pueden tener un momento difícil adaptando su estilo de enseñanza para que coincida con cada alumno, especialmente cuando hay alumnos con discapacidades de aprendizaje en el aula. Una discapacidad de aprendizaje presenta un obstáculo único a los métodos de enseñanza tradicionales. Puede ser difícil en un aula contemporánea para los maestros darles a los estudiantes la atención y la instrucción que realmente necesitan. Ahora, es posible que puedan recibir esa instrucción mediante el uso de inteligencia artificial.

La inteligencia artificial crece rápidamente y es más útil cada día. Los investigadores están desarrollando sistemas cognitivos que pueden ayudar a apoyar a las personas con discapacidades en las formas únicas que se adaptan a ellos. Estos programas de AI pueden presentar material de una manera nueva que pueda ayudar a los alumnos a comprender mejor independientemente de la instrucción del maestro.

La tecnología puede presentar material en términos comprensibles.

Los estudiantes con dificultades de aprendizaje a menudo tienen dificultades para leer textos más avanzados.Es posible que no puedan seguir estructuras de oraciones complejas, o podrían tener problemas con los modismos populares que se encuentran en el texto mismo. Los científicos e investigadores están moldeando la inteligencia artificial que puede convertir estos textos más difíciles en recursos más comprensibles . Podrían crear una oración más simple o reemplazar las bromas populares con alternativas más simples. Debe ser una excelente manera para que los estudiantes con discapacidades de aprendizaje se relacionen mejor y se relacionen con el material.

La inteligencia artificial ayuda a los educadores a identificar problemas de aprendizaje.

El primer paso para aprender a trabajar con estas discapacidades es identificar su presencia en un alumno. No todos los métodos de prueba actuales son altamente efectivos para detectar discapacidades de aprendizaje como dislexia o discalculia. Se están desarrollando nuevos sistemas de inteligencia artificial para ayudar a los maestros a administrar pruebas más efectivas que podrían descubrir algunas de estas condiciones a menudo ocultas. Una vez que pueden identificarse correctamente, los educadores pueden aprovechar los recursos disponibles para una discapacidad de aprendizaje.

Los estudiantes pueden usar IA para dar comentarios confiables.

Uno de los problemas más importantes con la enseñanza de los estudiantes que tienen una discapacidad de aprendizaje es la incapacidad de proporcionar comentarios consistentes. En un aula grande, puede ser un desafío disminuir la velocidad para ayudar a un puñado de estudiantes. Con la inteligencia artificial en rápido desarrollo, los estudiantes pueden recibir comentarios más confiables directamente relacionados con su propio desempeño. El sistema no avanzará hasta que los estudiantes demuestren el dominio del concepto y les permita trabajar a través del material a su propio ritmo si es necesario.

Los educadores pueden tener más datos.

Los números rara vez mienten cuando se trata de determinar el éxito en el aula. Con el advenimiento de la inteligencia artificial, los educadores tienen más acceso que nunca a una variedad de datos que pueden ayudarlos a identificar debilidades en el aula. Esta información puede revelar áreas donde la enseñanza no es efectiva o asignaturas donde la mayoría de los estudiantes tienen dificultades. También les da a los educadores una mejor idea de cómo los estudiantes con discapacidades de aprendizaje realmente están haciendo en comparación con sus compañeros.

La inteligencia artificial está constantemente abriendo nuevas puertas para los educadores y sus estudiantes, incluso aquellos con discapacidades de aprendizaje. La promesa de una educación más personalizada con el uso de inteligencia artificial es atractiva. Los académicos pueden ser mucho más simples para los estudiantes con discapacidades de aprendizaje que históricamente han tenido dificultades para comprender el material y mantenerse al día con sus compañeros en un entorno académico.

Fuente, thetechedvocate.org

Pinterest acaba de rediseñar su aplicación para personas invidentes

Así es como la compañía enfrentó sus propias deficiencias en el diseño inclusivo, y rediseñó su aplicación de forma sistémica para todos.

Así es como la compañía enfrentó sus propias deficiencias en el diseño inclusivo, y rediseñó su aplicación de forma sistémica para todos.
[Foto: cortesía de Pinterest]

El año pasado, Long Cheng se sentó con un grupo de ingenieros mientras estudiaban a personas usando Pinterest.Para Cheng, diseñador principal de la compañía, este tipo de prueba de usuario era un lugar común. Pero ese día, algo fue diferente. Los evaluadores no eran madres de treinta y tantos, o cualquier demográfica estereotípica aparece en tu cabeza cuando imaginas a uno de los 200 millones de usuarios dePinterest . Eran personas con una variedad de deficiencias visuales, desde la degeneración macular hasta la ceguera completa. Y Cheng quería ver qué tan bien podrían usar la aplicación.

Para su consternación, muchos ni siquiera pudieron pasar la pantalla de registro. La gente, literalmente, ni siquiera podía crear una cuenta. Mientras que iOS y Android tienen una función de accesibilidad, llamada Voice Over y Talk Back, respectivamente, que leen en voz alta los botones y opciones en la pantalla para que los usuarios con discapacidad visual naveguen, Pinterest no etiquetó correctamente su propia interfaz de usuario para esta función. incluso funciona correctamente Del mismo modo, cuando las personas teníanfinalmente entrar en la aplicación, recetas leen en voz alta sería etapas o ingredientes que faltan. La gente se encontró atrapada dentro de alfileres, sin saber cómo escapar. Incluso para las personas con deficiencias visuales, el diseño de Pinterest, con su tipo minúsculo, fue un desafío para discernir.

“Definitivamente fue personal para mí, y para mí específicamente. Porque he sido diseñador aquí durante cinco años, y es un producto que realmente me encanta trabajar, y quiero que todos puedan usarlo “, dice Cheng. “Para el grupo de ingenieros y diseñadores sentados allí, sentimos que no estábamos haciendo lo suficiente. Queríamos hacer más “.

Elementos de interfaz de Pinterest
[Imagen: cortesía de Pinterest]
Las personas ciegas que usan Pinterest, la aplicación para la inspiración visual, pueden parecer un oxímoron. Pero, de hecho, Pinterest, como todas las aplicaciones convencionales, tiene un contingente de usuarios ciegos (aunque la compañía admite no seguirlos). Muchos usan Pinterest simplemente para marcar historias en la web que les gustaría leer más adelante. Y a los que no usan el servicio les gustaría, si fueran bienvenidos.”Le preguntamos a un usuario, ¿usarías Pinterest? ¡No puedes ver lo que hay en la pantalla! “, Cuenta a largo. “Ella dijo, ‘por supuesto que sí'”. Con discapacidad visual o no, todos queremos recetas sabrosas, mejores cortes de pelo y consejos de moda. Y Pinterest está cargado con miles de millones de alfileres llenos de esto.Durante el año pasado, Pinterest se comprometió a practicar el diseño inclusivo y hacer que su producto sea más accesible para todos. Con un equipo de una docena de diseñadores e ingenieros, Cheng desarrolló un enfoque de varias partes para rediseñar Pinterest como un producto que podría ser más accesible para todos, lo que lleva a una experiencia de escritorio y aplicación totalmente rediseñada que se ha ido extendiendo lentamente durante meses.
Indicador de Enfoque [Imagen: cortesía de Pinterest]
Indicador de Enfoque [Imagen: cortesía de Pinterest]

El primer paso y el más obvio fue agregar todo el código y etiquetado adecuados para garantizar que las funciones como Voice Over pudieran leer todos los componentes de la pantalla.En la misma línea, la compañía agregó indicadores de enfoque, contornos relativamente estándar sobre los botones y menús que están activos, que hacen que Pinterest sea más fácil de usar para las personas que no pueden usar un mouse o un panel táctil.

Esto era una apuesta en la mesa, por supuesto. Otros aspectos del rediseño tendrían que ser más básicos para la experiencia del usuario. En particular, la compañía quería aumentar el contraste de la interfaz de usuario en toda la aplicación para que fuera más legible. Para lograrlo, el equipo de Cheng desarrolló una paleta de colores completamente nueva, llena de brillantes tonos joya que podían enmarcar texto y ayudarlo a explotar. Este espectro multicolor no podría estar más alejado de los azules del huevo del petirrojo tan queridos por las nuevas empresas.

“Muy a menudo como diseñadores, tenemos que aceptar la idea de que tal vez un diseño accesible no es tan bonito o hermoso”, dice Cheng. Pero él cree que con compromiso, los buenos diseñadores pueden encontrar una manera de defender la estética y la accesibilidad al mismo tiempo, incluso cuando se trata de interfaces de usuario de alto contraste. “¡Para nosotros revisar nuestra paleta de colores a colores accesibles, definitivamente hubo desafíos! Pero al final, descubrimos el camino correcto, y estuvo bien “.

Con respecto al daltónico, Pinterest ha eliminado cualquier instancia en la que el color se usó alguna vez para transmitir acción o significado; en el nuevo Pinterest, solo está ahí para aumentar la legibilidad y el estilo visual. Mientras tanto, la compañía introdujo la opción de aumentar el tamaño del texto en la aplicación dentro de la configuración, centrándose en el tamaño y la audacia para denotar jerarquía de información, en lugar de ajustar palabras en varios tonos de gris, que pueden ser de bajo contraste y difíciles de ver.

Internamente, Pinterest culminó su trabajo lanzando un laboratorio emergente de inclusividad para sus propios empleados para tratar de navegar por la aplicación con nada más que un teclado, o usar elementos como gafas de discapacidad visual al tratar de leer la pantalla. “Tratamos de ayudar a [nosotros] a entender todas las diferentes discapacidades que las personas pueden tener cuando usan Pinterest”, dice Cheng. “¿Cómo comenzamos cualquier desarrollo de producto teniendo esto en cuenta desde la fase cero?”

Interfaz de Pinterest en móvil antes y despues.
[Imagen: cortesía de Pinterest]

Lo que Cheng quiere inculcar es una mentalidad. Hace dos años, Pinterest se dio cuenta de que necesitaba considerar el mercado internacional en lo que respecta al diseño. Y ahora, sus diseñadores siempre piensan en las decisiones a escala global. Del mismo modo, él quiere ver a los diseñadores pensando inclusivamente desde el primer momento. La compañía también ha desarrollado pruebas automatizadas de accesibilidad en todas sus actualizaciones de aplicaciones en el futuro.

El diseño inclusivo es un proceso, no un destino . Y con eso en mente, es probable que veamos que cada vez más empresas pasan por un proceso similar al de Pinterest en el último año. Tal vez no lo hagan todo bien en el primer paso, pero siempre y cuando involucren activamente a sus usuarios finales en el proceso de diseño en el futuro, Pinterest solo se convertirá en un producto más útil para más personas.

Si eso no es suficiente para venderle un diseño inclusivo, vale la pena reconocer que algún día, todos seremos un caso extremo. Y las prácticas de diseño incluyentes a menudo son una inversión en nuestras propias vidas tanto como una forma de ayudar a los demás. Piense en ello como un seguro de salud o una seguridad social para la experiencia del usuario. “Algo que siempre pienso con este trabajo que hacemos es que estamos diseñando para nuestro ser futuro”, dice Cheng. “Lo que sea que hagamos en realidad nos beneficiará a todos en el futuro, incluso si ahora no tiene baja visión”.

Fuente fastcodesign.com

Silla de ruedas AI autónoma para ayudar a personas con discapacidad

El equipo de expertos de robots del Imperial College de Londres ha ganado $ 50,000 para desarrollar aún más una silla de ruedas artificialmente inteligente controlada por los ojos.

Silla de Ruedas
Crédito: Fotos de ThinkStock

 

El equipo de investigación del Imperial College London ganó $ 50k. El premio fue anunciado como parte del Mobility Unlimited Challenge Challenge Award , que es financiado por Toyota Mobility Foundation y administrado por el Nesta ‘s Challenge Prize Center .

Este premio de investigación ayudará a desarrollar una silla de ruedas autodirigida para personas paralizadas que puedan guiar con su mirada. También esperan hacer que esta silla de ruedas la ponga a disposición de las personas a bajo costo.

El director del proyecto, el Dr. Aldo Faisal de los Departamentos de Computación y Bioingeniería de Imperial, dijo: “Nuestra silla de ruedas ayudará a las personas a navegar por sus hogares y el mundo exterior. Si el usuario puede mover sus ojos para mirar el mundo, puede operar la silla de ruedas que lee las intenciones de sus ojos “.

El poder de la AI se está volviendo accesible y asequible para la gente común. Nosotros en Imperial estamos aprovechando su poder para mejorar vidas.
– Dr. Aldo Faisal

La silla de ruedas inteligente artificial autodidacta combina las tecnologías existentes disponibles, como el sistema de seguimiento ocular y las computadoras portátiles, con la silla de ruedas eléctrica.

La silla utiliza un sensor de Detección y rango de luz ( LiDAR ). Este sensor se basa en el infrarrojo, que se usa con mayor frecuencia en los autos sin conductor para generar un mapa de 360 ​​grados del entorno del usuario.

The self-driving artificially intelligent wheelchair

 

El rastreador ocular en silla de ruedas informa los momentos oculares a la AI y el programa AI define a dónde debe moverse la silla de ruedas y la guía para evitar obstáculos.

La silla de ruedas artificialmente inteligente autodidacta

Los componentes AI y LiDAR han hecho que sea más fácil navegar en la silla de ruedas evitando obstáculos sin más respuesta humana.

La silla de ruedas artificialmente inteligente autodidacta

 

La tecnología ayudará a las personas gravemente discapacitadas a restablecer su independencia a bajo costo.
– Noyan Songur y Mahendran Subramanian

El Dr. Faisal dijo: “Nuestra silla de ruedas es un gran ejemplo de innovación. También demuestra que el poder de la AI se está volviendo accesible y asequible para las personas comunes. Nosotros en Imperial estamos aprovechando su poder para mejorar vidas “.

Los estudiantes de posgrado del equipo de Aldo, Noyan Songur y Mahendran Subramanian dijeron: “Estos sistemas inteligentes de inteligencia artificial pueden aprender y mejorar de forma específica para el usuario a lo largo del tiempo, por lo que podemos trabajar con los pacientes desde el primer día para identificar sus necesidades y expectativas. La tecnología ayudará a las personas gravemente discapacitadas a restablecer su independencia a bajo costo “.

Fuente: techexplorist.com

Un nuevo banco de datos podría enseñar a las computadoras a decirle a las personas invidentes lo que necesitan saber

Sus creadores plantean un desafío para los investigadores de visión artificial: utilizar la información para mejorar la tecnología asistencial.

por Emerging Technology from the arXiv

Una de las tareas más difíciles para las computadoras es “responder preguntas visuales”, es decir, responder una pregunta sobre una imagen. Y este no es un avance teórico: estas habilidades podrían ser cruciales para la tecnología que ayuda a las personas ciegas a tener una vida diaria.

Las personas invidentes pueden usar aplicaciones para tomar una foto, grabar una pregunta como “¿De qué color es esta camisa?” O “¿Cuándo vence esta leche?”, Y luego pedir voluntarios para que respondan. Pero las imágenes a menudo están mal definidas, mal enfocadas o carecen de la información necesaria para responder la pregunta. Después de todo, los fotógrafos no pueden ver.

Los sistemas de visión artificial podrían ayudar, por ejemplo, filtrando las imágenes inadecuadas y sugiriendo que el fotógrafo intente de nuevo. Pero las máquinas no pueden hacer esto todavía, en parte porque no existe un conjunto significativo de datos de imágenes del mundo real que puedan usarse para capacitarlos.

 Distribution of the first six words for all questions in VizWiz. The innermost ring represents the first word and each subsequent ring represents a subsequent word. The arc size is proportional to the number of questions with that initial word/phrase.
Distribution of the first six words for all questions in VizWiz. The innermost ring represents the first word and each subsequent ring represents a subsequent word. The arc size is proportional to the number of questions with that initial word/phrase.

 

Entra Danna Gurari en la Universidad de Texas en Austin y algunos colegas, que hoy publican una base de datos de 31,000 imágenes junto con preguntas y respuestas sobre ellas. Al mismo tiempo, Gurari y compañía crearon un desafío para la comunidad de la visión artificial: usar su conjunto de datos para entrenar máquinas como asistentes efectivos para este tipo de problemas de la vida real.

El conjunto de datos proviene de una aplicación existente llamada VizWiz, desarrollada por Jeff Bigham y sus colegas de la Universidad Carnegie Mellon en Pittsburgh para ayudar a las personas invidentes. Bigham también es miembro de este equipo de investigación.

Al usar la aplicación, una persona invidente puede tomar una fotografía, grabar una pregunta verbalmente y luego enviar ambas a un equipo de voluntarios que responden lo mejor que pueden.

Pero la aplicación tiene una serie de deficiencias. Los voluntarios no siempre están disponibles, por ejemplo, y las imágenes no siempre hacen posible una respuesta.

En su esfuerzo por encontrar una mejor manera, Gurari y compañía comenzaron analizando más de 70,000 fotos recopiladas por VizWiz de usuarios que habían aceptado compartirlas. El equipo eliminó todas las fotos que contenían información personal, como información de tarjetas de crédito, direcciones o desnudos. Eso dejó unas 31,000 imágenes y las grabaciones asociadas con ellas.

Luego, el equipo presentó las imágenes y las preguntas a los trabajadores del servicio de crowdsourcing Mechanical Turk de Amazon, pidiéndoles a cada trabajador que respondiera con una breve oración. El equipo reunió 10 respuestas para cada imagen para verificar la consistencia.

Estas 31,000 imágenes, preguntas y respuestas conforman la nueva base de datos de VizWiz, que Gurari y compañía están poniendo a disposición del público.

El equipo también ha llevado a cabo un análisis preliminar de los datos, que proporciona información única sobre los desafíos que enfrenta la visión artificial al proporcionar este tipo de ayuda.

Las preguntas son a veces simples, pero de ninguna manera siempre. Muchas preguntas se pueden resumir como “¿Qué es esto?” Sin embargo, solo el 2 por ciento solicita una respuesta de sí o no, y menos del 2 por ciento se puede responder con un número.

Y hay otras características inesperadas. Resulta que aunque la mayoría de las preguntas comienzan con la palabra “qué”, casi una cuarta parte comienza con una palabra mucho más inusual. Esto es casi seguramente el resultado del proceso de grabación recortando el comienzo de la pregunta.

Pero las respuestas a menudo son aún posibles. Haga preguntas como “Vender o utilizar por fecha de esta caja de cartón de leche” o “¿El horno está configurado para agradecer?”. Ambos son fáciles de responder si la imagen proporciona la información correcta.

El equipo también analizó las imágenes. Más de un cuarto no son aptos para obtener una respuesta, porque no son claros o no contienen la información relevante. Ser capaz de detectar estos de forma rápida y precisa sería un buen comienzo para un algoritmo de visión artificial.

Y ahí está el desafío para la comunidad de visión artificial. “Presentamos este conjunto de datos para alentar a una comunidad más grande a desarrollar algoritmos más generalizados que puedan ayudar a las personas invidentes”, dicen Gurari y compañía. “Mejorar los algoritmos en VizWiz puede simultáneamente educar a más personas sobre las necesidades tecnológicas de las personas invidentes, al tiempo que ofrece una oportunidad nueva y emocionante para que los investigadores desarrollen tecnologías de asistencia que eliminen las barreras de accesibilidad para las personas invidentes”.

Sin duda, un objetivo digno.

Ref: arxiv.org/abs/1802.08218 : Gran desafío de VizWiz: respuesta a preguntas visuales de personas invidentes.

Fuente: technologyreview.com