Apple ofrece funciones innovadoras de software de accesibilidad

Apple presentó una vista previa de las nuevas funciones de software para movilidad y accesibilidad cognitiva, visual y auditiva, junto con herramientas innovadoras para personas que no hablan o que corren el riesgo de perder la capacidad de hablar.

En un compromiso de larga data de hacer productos para todos, Apple trabaja en estrecha colaboración con grupos comunitarios que representan un amplio espectro de usuarios con discapacidades para desarrollar características de accesibilidad impactantes.

A finales de este año, los usuarios con discapacidades cognitivas podrán usar el iPhone y el iPad de manera más fácil e independiente con Acceso asistido; Las personas que no hablan pueden escribir para hablar durante las llamadas y conversaciones usando Live Speech; Las personas en riesgo de perder la capacidad de hablar pueden usar una voz personal para crear una voz sintetizada que se asemeje a la suya para comunicarse con familiares y amigos.

Para los usuarios ciegos o con problemas de visión, el modo de descubrimiento de la lupa ofrece Point and Speak, que identifica el texto que los usuarios señalan y lo lee en voz alta para ayudarlos a interactuar con objetos físicos como electrodomésticos.

Estas actualizaciones se basan en avances en hardware y software, incluido el aprendizaje automático en el dispositivo para garantizar la privacidad del usuario.

Tim Cook, CEO de Apple: “En Apple, siempre hemos creído que la mejor tecnología es la tecnología diseñada para todos”, dice.

«Hoy, estamos emocionados de compartir nuevas características increíbles que se basan en nuestra larga historia de hacer que la tecnología sea accesible para que todos tengan la oportunidad de crear, conectarse y hacer lo que aman».

READ  Spotify lanza una nueva lista de reproducción personalizada “Daily List” que cambia según tu estado de ánimo

La accesibilidad es parte de todo lo que hacen en Apple, dice Sarah Herlinger, directora sénior de políticas e iniciativas de accesibilidad global de Apple.

“Estas funciones innovadoras están diseñadas con los comentarios de los miembros de las comunidades de personas con discapacidad en cada paso del camino para apoyar a un grupo diverso de usuarios y ayudar a las personas a conectarse de nuevas maneras”, dice Herrlinger.

El acceso asistido ayuda a reducir la carga cognitiva al optimizar las aplicaciones en función de sus funciones principales. Con los comentarios de los usuarios, las actividades básicas del iPhone y el iPad se personalizarán en consecuencia: comunicarse con sus seres queridos, tomar y disfrutar fotos y escuchar música.

Assistive Access también incluye una experiencia personalizada para Teléfono y FaceTime, que se combinan en una sola aplicación de llamadas, junto con Mensajes, Cámaras, Fotos y Música.

Los usuarios pueden experimentar una interfaz distinta con botones de alto contraste, etiquetas de texto grandes y herramientas para ayudar a los colaboradores de confianza a personalizar la experiencia para las personas a las que apoyan.

Katie Schmid, directora sénior de iniciativas de programas nacionales en The Arc of the United States, dice que existe una necesidad urgente de innovaciones recientes en la tecnología disponible.

“La comunidad de personas con discapacidades intelectuales y del desarrollo está llena de personas creativas, pero la tecnología a menudo pone barreras físicas, visuales o cognitivas para estas personas”, dice Schmid.

“Tener una función que brinde una experiencia cognitivamente accesible en su iPhone o iPad significa más puertas abiertas a la educación, el empleo, la seguridad y la independencia.

«Se trata de expandir mundos y expandir posibilidades», explica Skmid.

Con Live Speech, los usuarios pueden escribir lo que quieren decir para que se diga en voz alta durante las llamadas telefónicas y de FaceTime, así como en las conversaciones en persona. También pueden memorizar frases comunes y usarlas rápidamente durante discusiones en vivo.

Para los usuarios que corren el riesgo de perder la capacidad de hablar, se puede usar Personal Voice para crear una voz que se parezca a ellos. Los usuarios pueden grabar una voz personalizada leyendo junto con un conjunto aleatorio de mensajes de texto, y luego pueden combinar eso con Live Speak para comunicarse con amigos y familiares.

“Al final del día, lo más importante es poder comunicarse con amigos y familiares”, dice Philip Green, miembro de la junta y defensor de ALS de la organización sin fines de lucro Team Gleason, quien ha visto cambios significativos en su voz desde que recibió un diagnóstico de ELA en 2018.

«Si puedes decirles que los amas con una voz que se parece a ti, eso hace toda la diferencia en el mundo, y poder crear tu propia voz artificial en tu iPhone en solo 15 minutos es extraordinario», dice Green.

Point and Speak in Magnifier facilita que los usuarios con discapacidades visuales interactúen con objetos físicos utilizando varias etiquetas de texto. Point and Speak combina la entrada de la aplicación de la cámara, el escáner LiDAR y el aprendizaje automático en el dispositivo para anunciar el texto en cada botón a medida que los usuarios mueven el dedo por el teclado.

READ  Este hotel boutique es perfecto para una estadía en la ciudad mientras te diviertes en Fringe World

Point también funciona con VoiceOver y se puede usar con otras funciones de Magnifier, como detección de personas, detección de puertas y descripciones de fotos para ayudar a los usuarios a navegar por su entorno físico.

Para celebrar el Día de la Concienciación sobre la Accesibilidad en todo el mundo, Apple también presenta nuevas funciones y colecciones seleccionadas esta semana.

Esto incluye SignTime, Se lanzó en Alemania, Italia, España y Corea del Sur, conectando a los clientes de Apple Store y Apple Support con intérpretes de lenguaje de señas a pedido.

También habrá sesiones informativas en las tiendas Apple Store durante la semana para ayudar a los clientes a descubrir las funciones de accesibilidad. Además, la Biblioteca Apple Carnegie presentará una sesión de Today at Apple con la intérprete e intérprete de lenguaje de señas Justina Miles.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *