Atienden discapacidad con neuroestimulación

El Centro Estatal de Rehabilitación y Educación Especial realiza tratamientos para niños con discapacidad empleando neuroestimulación y realidad virtual. NOTIMEX

El Centro Estatal de Rehabilitación y Educación Especial (CEREE) del Instituto de Salud del Estado de México (ISEM) realiza tratamientos para niños con discapacidad y adultos mayores empleando neuroestimulación y realidad virtual.

En un comunicado, el gobierno mexiquense detalló que el CEREE está construido con cortinas de burbujas, lluvia sensorial de fibra óptica, paneles de sonido y táctiles, proyector de imágenes y colores, así como alberca con pelotas sensitivas.

Destacó que cuentan con una Sala de Realidad Virtual (SRV), donde se trabaja con programas de cómputo especializado que permiten editar de manera específica los tratamientos de pacientes que sufren problemas neurológicos y ortopédicos, cuyas afectaciones recaen en la coordinación y equilibrio.

El director del centro, Miguel Ángel Tepozteco, informó que en la Cámara de Estimulación Multi Sensorial (CEMS) se han realizado siete mil 360 sesiones a niños con problemas de atención, de lenguaje y con espectro autista.

A su vez, en la SRV se han hecho mil 920 sesiones para corregir afectaciones físicas y corporales.

En general, el CEREE ha entregado más de 10 mil tratamientos a niños con discapacidad y adultos mayores.

Por su parte, Erika Alanís, coordinadora de Terapia Ocupacional del centro, explicó que cada paciente accede a un mínimo de diez sesiones, con una duración de 30 minutos, y son complementarias a otras actividades como la de fisioterapia, electroterapia, mecanoterapia, hidroterapia, estimulación temprana, terapia ocupacional y un simulador de casa.

Destacó que la sala virtual y dichas herramientas se consideran innovadoras en el campo de la rehabilitación terapéutica, debido a que las atmósferas de tranquilidad y relajación permiten mejorar las funciones corporales, de conducta, educación y aprendizaje.

Fuente: rotativo.com.mx

 

La app que permite a las personas sordas comunicarse, creada por un emprendedor argentino de 18 años

Mateo Salvatto sacó en enero la aplicación “Hablalo” que integra dos servicios: traducción de texto a voz y de voz a texto; ya tiene más de 10 mil descargas y funciona en 10 países.

El emprendedor Matteo Salvatto terminó el secundario con orientación en electrónica y, en lugar de seguir haciendo robots y cohetes, quiso crear algo que contribuyera a la comunidad. Al ser su mamá intérprete en lengua de señas y docente para sordos, pensó en aplicar la tecnología para ayudar a estas personas y creó “Hablalo”, una app que asiste a gente con problemas para comunicarse verbalmente y con dificultades en la audición.

Lanzada en enero, la aplicación ya tiene 10 mil descargas y funciona en 10 países de habla hispana. Sin embargo, Salvatto, de 18 años, no se detiene y está trabajando para agregarle funcionalidades y mejorarla lo más posible para, una vez que eso esté desarrollado, lanzarse a otros proyectos relacionados con discapacidad.

“Yo soy técnico electrónico así que estudié electrónica, programación, desarrollo de plaquetas nada que ver con algo social pero cuando terminé la secundaria quería hacer algo para ayudar a la comunidad que tengo tan cerca. Como mi mamá es profesora de sordos, en todas las cenas familiares escuché hablar sobre sordos. Y un día dije ‘tenemos que aplicar la tecnología para ayudar a estas personas’”, afirmó en una entrevista con José del Río en el programa “Comunidad de Negocios”.

La aplicación integra dos servicios principales: uno de traducción de texto a voz, por el cual la persona sorda escribe lo que quiere decir. Por ejemplo: “¿Dónde hay una farmacia?”. Eso, al presionar un botón, se reproduce en voz alta. Luego, cuando le responden, por ejemplo, “Está a dos cuadras”, presiona un botón que activa un servicio de traducción de voz a texto y esa respuesta aparece como una oración en la parte baja de la pantalla del celular, incluso sin conexión a internet.

“Cualquiera que conozca de tecnología sabe que no es un desarrollo revolucionario. Es agarrar tecnología que ya existía para ponerla en un entorno que ayude a los sordos. Por ahí no nos ponemos a pensar pero no solamente no pueden comunicarse con los oyentes sino que, si están manejando, no escuchan una ambulancia, o cuando suena un timbre, o si hay un bebé llorando. Si tienen que ir a la AFIP tienen que ir con un intérprete y, si el interprete no puede ir, bueno la aplicación surge para dar una herramienta si pasa algo así”, explicó.

La app es gratuita y no hay ninguna parecida en el mundo. En un mes, Salvatto lanzará una nueva versión para iPhone con un modelo freemium por el cual se podrá pagar por una mejora sin publicidad. Pero eso no es todo sino que está pensando en más funcionalidades.”Estoy trabajando en el Ministerio de Ciencia, Tecnología e Innovación de la provincia de Buenos Aires para acerca a la robótica como un deporte o competencia a colegios de la provincia. Pero mi proyecto es mejorar Hablalo para que detecte un timbre que suena o un bebé llorando y le pueda avisar a la persona. Quiero tratar de mejorarla lo más posible y, una vez que esté eso desarrollado, me lanzaré a otros proyectos relacionados con discapacidad”, confió.

Por último, consultado por la opinión de su mamá, dijo que “está muy contenta porque es cierto que las personas sordas no tienen asistencia tecnológica”. “En enero se publicó y ya tiene 10 mil descargas por la demanda de la comunidad. Ellos mismos me sugirieron mejoras”, concluyó.

Fuente: elliberal.com.ar

Descarga la App

Migraciones inicia servicio de intérpretes para personas con discapacidad auditiva

Atención: Este servicio no estará disponible todos los días de la semana.

Intérpretes solo estarán disponibles en la sede de la avenida España.

La Superintendencia Nacional de Migraciones inició este miércoles su servicio de intérpretes para personas con discapacidad auditiva. El recurso, por el momento, solo está disponible en su sede central ubicada en la avenida España.

De esta forma, los ciudadanos peruanos que busquen tramitar sus pasaportes o en el caso de los extranjeros que quieran realizar algún tramite migratorio, podrán contar con este tipo de atención de forma gratuita.

Sin embargo, este servicio no estará disponible todos los días. Según detalló Migraciones, esta atención se brindará los los martes y jueves de 9:00 a.m. a 1 p.m. y sábados de 8:00 a.m. a 12:00 p.m.

Aunque, la superintendencia indicó que este servicio puede “variar en función a las necesidades de los ciudadanos”.

Según cifras oficiales alcanzadas por Migraciones, 532 mil peruanospadecen de una limitación permanente auditiva, inclusive utilizando audífonos.

DATO
Según el Decreto Supremo 006-2017-MIMP, todas las entidades públicas y privadas que brindan servicios públicos o de atención tienen la obligación de proveer este servicio a favor de las personas con discapacidad auditiva.

Fuente: peru21.pe

App enseña lengua de señas para acortar brecha entre sordo y oyente

La aplicación Ceibal-LSU, que enseña lenguaje de señas a los usuarios, busca acortar la brecha que existe entre la comunidad sorda y la oyente. (Foto: Getty Images)

La aplicación Ceibal-LSU, que enseña lenguaje de señas a los usuarios, busca acortar la brecha que existe entre la comunidad sorda y la oyente, al tender un “puente al revés” para evitar que quienes tienen discapacidad auditiva tengan que ser siempre quienes se esfuerzan por incluirse en un mundo que oye.

Así lo explicó a Efe Mariana Montaldo, jefa de Contenidos del Plan Ceibal, organización que financió el desarrollo de esta aplicación, que fue presentada este viernes en Montevideo.

“Fuimos conociendo las necesidades y vimos la brecha que había entre la comunidad sorda y la oyente. Frente a eso, pensamos que sería bueno crear una aplicación que enseñe a quienes pueden oír el lenguaje de señas”, agregó Montaldo.

La aplicación, llamada Ceibal-LSU (Lengua de Señas Uruguaya), tiene un funcionamiento similar a Duolingo, una plataforma para dispositivos electrónicos que enseña idiomas y cuya dificultad va en aumento en proporción a la evolución del usuario.

Según detalló Montaldo, lo primero que el usuario debe hacer es crear un avatar y seleccionar un área temática en la que indagar, como ser comidas, lugares, animales o colores, entre otras.

En cada una de ellas, la aplicación le mostrará al usuario una serie de vídeos que demuestran cómo se traducen las palabras al lenguaje de señas.

Una vez que el usuario termina el vídeo, la aplicación propondrá una serie de pruebas para confirmar que se comprendió la traducción de las palabras de forma correcta.

Los vídeos demostrativos fueron grabados por 10 alumnos de la Escuela 197, la única institución educativa exclusivamente para sordos que existe en Montevideo.

Aunque la aplicación está dirigida a los niños, y así fue pensada su estética, Montaldo no descartó que pueda ser utilizada también por docentes o adultos que quieran formarse en el lenguaje de señas.

“Una de las cosas que plantea es reflexionar sobre el lugar en el que se pone a la comunidad sorda. No es adaptar algo para que el sordo esté incluido, sino que la propuesta es que ellos nos enseñen a nosotros”, expresó Montaldo.

Respecto a esto último, consideró que es como “tender un puente al revés”.

“Que no sean siempre ellos (la comunidad sorda) quienes tengan que hacer el esfuerzo por incluirse en un mundo de gente que puede oír”, concluyó Montaldo.

La aplicación, que llevó ocho meses de trabajo, está disponible para descargar en dispositivos que funcionan con el sistema operativo de Android.

EFE

Fuente:  peru.com

Eyesynth: un sistema de navegación, reconocimiento y comprensión del entorno para ciegos

Un nuevo aparato permite a los ciegos obtener información espacial en un audio muy fácil de comprender.

Por Alberto Iglesias Fraga

Una startup española busca facilitar la movilidad de las personas con discapacidad visual. Foto: TICBeat

Las personas con discapacidad visual o ceguera lo tienen, a veces, muy complicado para superar los obstáculos artificiales que hemos ido creando en nuestras ciudades. Barreras y bolardos, objetos inesperados en la calle, diferencias de altura… la lista de problemas parece casi infinita para este colectivo que, hasta ahora, tenía a su propio instinto, el bastón o la ayuda de perros guía o voluntarios su única forma de moverse sin sufrir un accidente.

El sector tecnológico no ha sido ajeno a las necesidades de este grupo de población, proponiendo un sinfín de soluciones más o menos innovadoras con qué facilitar la movilidad de las personas con discapacidad visual. Entre ellas, destaca Eyesynth, un sistema de navegación, reconocimiento y comprensión del entorno en tiempo real no invasivo y muy sencillo de utilizar.

TICbeat tuvo la oportunidad de conocer este interesante proyecto de la mano de Antonio Quesada, CEO de Eyesynth. He aquí la entrevista completa:

¿Cómo surgió la idea de poner en marcha Eyesynth?
La idea surgió un poco como consecuencia frente a la falta de respuestas tecnológicas a una comunidad tan grande de gente. Desde el perro guía y el bastón, no hay un estándar de movilidad tecnológico y en Eyesynth nos hemos propuesto cambiar eso. Nosotros no pretendemos hacer sustituciones, sino complementar las opciones existentes con una herramienta actualizada y que permita ampliar muchísimo la movilidad y la independencia de la persona que lo use.

¿Cómo funcionan vuestras gafas y el software que las acompaña? ¿En qué principios científicos y tecnológicos se sostiene?
Nuestra tecnología hace un análisis tridimensional del entorno y convierte esa información espacial en un audio muy fácil de comprender, un siseo parecido al rumor del mar. Lo cierto es que nos apoyamos mucho en la ciencia y en el principio de la sinestesia en el que el cerebro tiene la habilidad de poder reinterpretar la información que le da un sentido mediante otro. También nuestros planteamientos están relacionados con la plasticidad del cerebro: es capaz de crear nuevas conexiones neuronales entre las zonas auditiva y visual para mejorar la comunicación entre ellas. El cerebro es capaz de “recablearse”

¿En qué casos concretos puede la tecnología de Eyesynth ayudar a las personas con discapacidades visuales?
Claro, hay varios casos en los que las gafas se muestran muy útiles, por ejemplo, en la detección de obstáculos aéreos, como pueden ser toldos, semáforos o extintores de pared. También es importante la amplitud de la imagen que se analiza, hasta 6 metros de distancia. Un factor crítico es cada cuánto tiempo se actualiza la información al usuario. En nuestro caso, 60 veces por segundo, lo que nos da mucho margen de movilidad al estar advertidos lo suficientemente pronto de los objetos que tenemos delante.

¿Cuáles son las principales barreras que os encontrasteis a la hora de desarrollar vuestra idea?
Primero la gran cantidad de cálculo que tenía que hacer el sistema, con lo cual a nivel de electrónica es todo muy complejo, y luego existe una barrera más de tipo social. Ha habido muchas propuestas tecnológicas que no han estado suficientemente bien diseñadas y que han hecho crecer un escepticismo hacia la posible potencia y utilidad de tecnologías como la nuestra.

¿Está ya en fase de comercialización vuestra tecnología?
Estamos ya en la última fase de producción, vamos a entrar en proceso de fabricación masiva en breve para poder salir al mercado a principios del año que viene. Además, estamos muy contentos de poder contar con un amplio grupo de usuarios y testers que están dándonos su feedback para mejorar el producto en esta última etapa.

¿Cuáles son vuestras previsiones de alcance en el mercado?
La verdad es que es difícil hacer un análisis a priori cuando estamos rompiendo hielo, pero dado que tenemos un precio lo más ajustado y competitivo posible, y una necesidad real de mercado, las expectativas son buenas.

¿El desarrollo de la tecnología ha sido propio o habéis contado con terceros? ¿Ha sido 100% creada en España?
Exacto, ha sido un desarrollo interno propio. 100% creado en España.

¿Cuál ha sido la colaboración de instituciones y organismos públicos a la hora de desarrollar la empresa, más allá del programa Horizonte 2020 del que formáis parte?
A nivel Institucional estamos en contacto con varios actores principales en materia de movilidad y discapacidad en España. Como iniciativas e instituciones privadas, estamos siendo muy apoyados por los medios de comunicación en la divulgación del proyecto, además hemos recibido varios premios en los últimos meses en materia de innovación y emprendimiento que nos están dando visibilidad y un gran apoyo.

“Desde el perro guía y el bastón, no hay un estándar de movilidad tecnológico para ciegos”, asegura Antonio Quesada. Foto: TicBea
“Desde el perro guía y el bastón, no hay un estándar de movilidad tecnológico para ciegos”, asegura Antonio Quesada. Foto: TicBeat

Financiación: ¿habéis emprendido ya rondas de financiación?
Estamos estudiando diversas posibilidades, nuestro objetivo es expandirnos y que el proyecto tome un camino global, y para ello estamos abiertos a varias posibilidades entre las que se incluyen el abrir ronda de financiación.

¿Cuántas personas estáis involucradas actualmente en el proyecto?
Actualmente el núcleo del proyecto lo forman 15 personas, pero el proyecto va mucho más allá del equipo de desarrollo en sí. Con los probadores, consejeros y personas involucradas en él de una manera u otra, superamos la treintena.

Próximos retos del proyecto, algún hito próximo que podamos adelantar a los lectores
Nuestros hitos más cercanos son llegar al mercado y empezar una distribución europea, pero si es verdad que estamos trabajando en varios focos. Por ahora os podemos decir que en nuestra hoja de ruta tenemos un montón de novedades emocionantes que llegarán a las gafas en forma de actualización de software.

ESTE CONTENIDO ES PUBLICADO POR SINEMBARGO CON AUTORIZACIÓN EXPRESA DE TICBeat. VER ORIGINAL AQUÍ. PROHIBIDA SU REPRODUCCIÓN.

Fuente: sinembargo.mx

App uruguaya enseña lengua de señas para acortar brecha entre sordo y oyente

La aplicación está dirigida a los niños, pero también puede ser usada por docentes o adultos que quieran aprender el lenguaje de señas

La aplicación tiene un funcionamiento similar a Duolingo. (Foto: Ceibal-LSU)
La aplicación tiene un funcionamiento similar a Duolingo. (Foto: Ceibal-LSU)

La aplicación Ceibal-LSU, que enseña lenguaje de señas a los usuarios, busca acortar la brecha que existe entre la comunidad sorda y la oyente, al tender un “puente al revés” para evitar que quienes tienen discapacidad auditiva tengan que ser siempre quienes se esfuerzan por incluirse en un mundo que oye.

Así lo explicó a Efe Mariana Montaldo, jefa de Contenidos del Plan Ceibal, organización que financió el desarrollo de esta aplicación, que fue presentada este viernes en Montevideo.

“Fuimos conociendo las necesidades y vimos la brecha que había entre la comunidad sorda y la oyente. Frente a eso, pensamos que sería bueno crear una aplicación que enseñe a quienes pueden ‘oír’ el lenguaje de señas”, agregó Montaldo.

La aplicación, llamada Ceibal-LSU (Lengua de Señas Uruguaya), tiene un funcionamiento similar a Duolingo, una plataforma para dispositivos electrónicos que enseña idiomas y cuya dificultad va en aumento en proporción a la evolución del usuario.

Según detalló Montaldo, lo primero que el usuario debe hacer es crear un avatar y seleccionar un área temática en la que indagar, como ser comidas, lugares, animales o colores, entre otras.

En cada una de ellas, la aplicación le mostrará al usuario una serie de vídeos que demuestran cómo se traducen las palabras al lenguaje de señas.

Una vez que el usuario termina el vídeo, la aplicación propondrá una serie de pruebas para confirmar que se comprendió la traducción de las palabras de forma correcta.

Los vídeos demostrativos fueron grabados por 10 alumnos de la Escuela 197, la única institución educativa exclusivamente para sordos que existe en Montevideo.

Aunque la aplicación está dirigida a los niños, y así fue pensada su estética, Montaldo no descartó que pueda ser utilizada también por docentes o adultos que quieran formarse en el lenguaje de señas.

“Una de las cosas que plantea es reflexionar sobre el lugar en el que se pone a la comunidad sorda. No es adaptar algo para que el sordo esté incluido, sino que la propuesta es que ellos nos enseñen a nosotros”, expresó Montaldo.

Respecto a esto último, consideró que es como “tender un puente al revés”.

“Que no sean siempre ellos (la comunidad sorda) quienes tengan que hacer el esfuerzo por incluirse en un mundo de gente que puede oír”, concluyó Montaldo.

La aplicación, que llevó ocho meses de trabajo, está disponible para descargar en dispositivos que funcionan con el sistema operativo de Android.

Fuente: elcomercio.pe

«Lazzus»: el lazarillo de los invidentes

La app genera un campo auditivo para funcionar como un sistema de navegación para ciegos

La app genera un campo auditivo para funcionar como un sistema de navegación para ciegos

Unos emprendedores asturianos han lanzado «Lazzus», una aplicación diseñada para mejorar la autonomía de los ciegos y los discapacitados visuales, con el objetivo de aumentar la seguridad del usuario a la vez que aportarle información útil y de interés en sus desplazamientos, según han informado los impulsores de esta iniciativa.

La aplicación, disponible para iOS y Android, es un asistente que acompaña a estas personas en sus desplazamientos creando un campo de visión auditivo y proporcionándoles información relevante del entorno, por ejemplo, si hay un paso de peatones, un cruce de calles o establecimientos concretos.

«Nos sorprendió una persona ciega buscando un GPS en una tienda de electrónica, confiando en que podría ayudarle en sus desplazamientos, pero ningún GPS es accesible. Nos dimos cuenta de que, a pesar de la tecnología que llevamos en la mano gracias a los smartphones, no existía ningún asistente personal que pudiera ayudar a los discapacitados visuales», ha explicado el CEO y socio de Lazzus, Francisco Pérez.

Por ello, según ha señalado Pérez, quisieron ir «un paso más» y crear una app que «realmente aportase un valor añadido», ofreciendo «toda la información» que el usuario no puede ver.

«Lazzus» combina dos fuentes de datos complementarias: Google PlacesOpen Street Maps, que juntas proporcionan información «precisa» que permite descubrir multitud de puntos de interés. Además, ofrece que cada usuario pueda añadir sus propios puntos de interés, permite realizar búsquedas en un radio de 100 metros y facilita la exploración del terreno, filtrando “sólo información relevante” que está cerca del usuario.

«Hemos intentado mostrar el entorno a través de distintas formas, para que el usuario elija dependiendo de sus necesidades en cada momento», ha subrayado el emprendedor, que también ha destacado que la app incluye el «Modo Linterna», que indica lo que hay en la dirección que señalas con el móvil; el «Modo 360º», que reconoce lo que está en un radio cerca de ti en todas las direcciones; y el «Modo Transporte», que se activa automáticamente cuando vas en un autobús o coche, indicando el lugar en el que se encuentra el usuario para evitar que se desoriente.

La aplicación, que ofrece una prueba gratuita de dos kilómetros, ha sido testada y avalada por el centro de la ONCE referente en España en accesibilidad y productos de apoyo para personas ciegas (CIDAT), y ha recibido el premio de Google a la startup más innovadora y disruptiva, así como el premio Fundación Vodafone a la innovación en comunicaciones.

Fuente: abc.es

Científicos de Harvard crean un exoesqueleto ligero que ayuda a caminar

Científicos de Harvard crean un exoesqueleto ligero que ayuda a caminar

 

Escrito por Andrea Núñez-Torrón Stock

Un equipo de científicos de la Universidad de Harvard se encuentra trabajando en un innovador exoesqueleto ligero para aligerar el esfuerzo al caminar y prevenir los problemas de movilidad.

Una reciente investigación científica firmada en la Universidad de Harvard ultima un exoesqueleto ligero que se engancha a la cadera y al tobillo para que personas enfermas o ancianas puedan caminar. El año pasado proporcionaron los primeros resultados de prueba, demostrando que esta estructura robótica portátil podríareducir considerablemente el gasto de energía en personas sanas que caminan con una carga en la espalda.

La investigación, publicada en la revista Science Robotics y que ha contado con la participación de siete personas, ha revelado un ahorro energético del 23%, “la mayor reducción de energía constada hasta la fecha en un exoesqueleto”, en palabras de Connor Walsh, director del Instituto Wyss y de la investigación.

Su estructura cuenta con dos fundas, una para los tobillos y otra para las caderas, unidas por un entramado de correas responsables de transmitir el movimiento. Todas las piezas conectadas al exoesqueleto están conectadas a un dispositivo que lo gestiona. Una de las principales novedades respecto a sus predecesores es la ligereza y flexibilidad de sus materiales, que en otros modelos previos son rígidos y dependen de pesadas baterías.

Sus componentes textiles funcionales, su sistema de control biológico y la asistencia sincronizada con el mecanismo de caminar hacen de este exoesqueleto ligero un gran avance.

Científicos de Harvard crean un exoesqueleto ligero que ayuda a caminar

Múltiples aplicaciones

En un grupo de prueba compuesto por siete usuarios sanos, apreciamos claramente que cuanto más asistencia se proporciona a las articulaciones del tobillo, más energía los usuarios podrían ahorrar con una reducción máxima de casi el 23% en comparación con caminar con el exosuit apagado“, dijo Walsh. Los autores de la investigación señalan que todavía se requieren estudios futuros para comparar los efectos del exoesqueleto según el peso añadido del sistema, la cantidad de ropa o la cantidad de fuerza aplicada. 

Las aplicaciones de este nuevo descubrimiento serán muy diversas, beneficiando a una amplia gama de personas con problemas motrices. Desde pacientes con Parkinson a personas mayores con movilidad reducida, personas que trabajan cargando objetos pesados o empleados con diversidad funcional, todos ellos podrían emplear el exoesqueleto ligero para ahorrar esfuerzo para su cuerpo.

Por otra parte, cuando se desarrolle en mayor profundidad, este sistema podría ser capaz de ralentizar la pérdida de facultades motrices y de movilidad derivadas de la edad avanzada.

Fuennte: ticbeat.com

Elaborarán propuesta para mejorar educación de personas con discapacidad

Ministerio de Educación instala comisión que presentará un proyecto de nueva política en los próximos 90 días

En un plazo de 90 días una comisión sectorial del Ministerio de Educación elaborará una propuesta de una nueva política, con el objetivo de mejorar la atención de estudiantes con discapacidad. (Foto: Ministerio de Educación)

 

En un plazo de 90 días una comisión sectorial del Ministerio de Educación elaborará una propuesta de una nueva política, con el objetivo de mejorar la atención de estudiantes con discapacidad intelectual, física y sensorial, trastornos de neurodesarrollo, talento y superdotación, situación de hospitalización u otras necesidades específicas.

La comisión que fue instalada el lunes, está presidida por la viceministra de Gestión Pedagógica del Minedu, Liliana Mirandaquien resaltó que una vez aprobada la política será aplicada en el marco del enfoque inclusivo en la educación básica, técnico productiva y superior.

“De esta manera, se busca garantizar que todos los estudiantes reciban una educación de calidad, pertinente, con equidad y en igualdad de oportunidades, eliminando las barreras que impiden acceder y participar del sistema educativo”, sostuvo Liliana Miranda.

La comisión sectorial está integrada por los titulares de las direcciones generales de Educación Básica Regular; Servicios Educativos Especializados; de Educación Básica Alternativa, Intercultural Bilingüe y de Servicios Educativos en el Ámbito Rural; de Desarrollo Docente; Educación Superior Universitaria; Educación Primaria; Educación Básica Especial, entre otros.

Entre las organizaciones que brindarán asesoría, colaboración y opinión especializada están: el Consejo Nacional de Educación (CNE), el Grupo de Análisis para el Desarrollo (GRADE), el Consejo Nacional para la Integración de la Persona con Discapacidad (Conadis), la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) y la Coalición por el Derecho a una Educación Inclusiva.

Fuente: elcomercio.pe

Se lanza un producto de accesibilidad para personas con discapacidad

Sirve para el uso de videoporteros por personas con discapacidad visual o auditiva, que pueden instalarse en edificios, estacionamientos, hospitales y escuelas.

Se creó un nuevo producto llamado A8004-VE, que permite a personas con discapacidades auditivas o visuales la comunicación a través de videoportero para el control de entradas y salidas en edificios, estacionamientos, además de áreas de acceso restringido en hospitales y escuelas.

A8004-VE

La empresa desarrolladora se llama Axis Communications, y la placa frontal que se conecta directamente al videoportero IP de la empresa, cuenta con pictogramas luminosos que muestran la liberación del acceso y función activada, lo que indica, por ejemplo, que la imagen del usuario está siendo vista en vivo por el equipo de monitoreo.

Para usuarios con dificultades visuales, un loop de avisos sonoros alerta sobre la presencia del videoportero, y una marcación en braille indica el botón de llamada de voz con la central. De esta manera, la interacción con la tecnología es mucho más simple y hace innecesaria la presencia de terceros.

“El producto permite a los edificios cumplir con regulaciones sobre accesibilidad libre de barreras”, explica Andrei Junqueira, gerente de Ventas de Axis para América del Sur.

En diciembre de 2016, Axis recibió el premio Sustainability Leadership Award, que reconoce a personas, equipos y organizaciones que han hecho de la sostenibilidad una parte integral de sus prácticas.

Fuente: connuestroperu.com