Con iOS 14, los usuarios sordos pueden configurar advertencias para sonidos importantes, incluidas las funciones de accesibilidad inteligente – TechCrunch


La última versión de iOS incluye algunas funciones inteligentes diseñadas para personas con discapacidad auditiva y visual. Sin embargo, algunos de estos pueden ser útiles para casi todos.

Quizás la nueva característica más convincente es la detección de tonos. Crea una notificación cuando el teléfono detecta una de una larga lista de sonidos comunes que los usuarios pueden querer tener en cuenta. Sirenas, ladridos de perros, alarmas de humo, bocinas de automóviles, timbres, agua corriente, sonidos de dispositivos: la lista es bastante extensa. Una compañía llamada Furenexo hizo un dispositivo que hizo esto hace años, pero es bueno tenerlo instalado.

Los usuarios también pueden recibir notificaciones enviadas a su reloj Apple si no siempre lo desean. Revise el teléfono para ver si el horno ha alcanzado la temperatura. Apple está trabajando para agregar más sonidos humanos y animales para que el sistema pueda crecer.

La utilidad de esta función para las personas con discapacidad auditiva es obvia, pero también es adecuada para todos los que se pierden en su música o podcast de música y se olvida de que dejarán salir al perro o esperarán un paquete.

También nuevo en el departamento de audio es lo que Apple llama un "audiograma personal". Esto corresponde a una configuración de ecualización personalizada basada en qué tan bien escuchas las diferentes frecuencias. No es un instrumento médico, no se usa para diagnosticar la pérdida de audición o similares, pero un puñado de pruebas de audio puede determinar si ciertas frecuencias deben aumentarse o reducirse. Desafortunadamente, por alguna razón, la función solo funciona con auriculares con la marca Apple.

Las conversaciones de texto en tiempo real son un estándar de accesibilidad que envía chat de texto a través de protocolos de llamadas de voz y permite conversaciones fluidas y acceso a servicios de emergencia para personas no verbales. Ha sido compatible con iPhones durante algún tiempo, pero ahora los usuarios ya no necesitan estar en la aplicación de llamadas para que funcione. Llame mientras juega o mira un video y la conversación aparecerá en las notificaciones. [19659002] Una característica final destinada a las personas con discapacidad auditiva es un cambio bajo el capó para agrupar las llamadas FaceTime. Por lo general, el video cambia automáticamente al que habla, pero, por supuesto, el lenguaje de señas es silencioso, por lo que el video no se enfoca en él. Hasta iOS 14 de todos modos. En este caso, el teléfono reconoce los movimientos como lenguaje de señas (incluso si no hay caracteres específicos) y cambia la vista a este suscriptor correctamente. La vista es sólida, pero siempre hay espacio para crecer. VoiceOver, el lector de pantalla inteligente que ha existido durante más de una década, se ha mejorado con un modelo de aprendizaje automático que puede reconocer más elementos de la interfaz de usuario, incluso si no están etiquetados correctamente, así como también en aplicaciones y contenido de terceros. Esto también está en camino al escritorio, pero todavía no.

Las chuletas descriptivas de iOS también se han actualizado. Al analizar el contenido de una foto, ahora se pueden vincular de manera más integral. Por ejemplo, en lugar de decir "dos personas están sentadas", podría significar "dos personas sentadas en un bar tomando una copa" o "en lugar de" perro en un campo "" un golden retriever jugando en el campo en un día soleado ". "Bueno, no estoy 100% seguro de que la raza pueda hacerlo bien, pero tienes la idea.

Los controles para la lupa y el rotor también se han mejorado, y grandes partes del texto en Braille ahora se mueven automáticamente.

19659002] Los desarrolladores con discapacidad visual estarán encantados de saber que Swift y Xcode han recibido muchas opciones nuevas de VoiceOver y garantizarán que las tareas comunes, como la finalización del código y la navegación, sean accesibles.

Typing Back

"Typing Back" es una nueva característica para dispositivos Apple conocida por los usuarios de Android que han visto tales cosas en teléfonos Pixel y otros dispositivos. Los usuarios pueden tocar la parte posterior del teléfono dos o tres veces para activar un acceso directo, muy útil para que aparezca el lector de pantalla mientras su otra mano sostiene la correa del perro o una taza de té.

Como puede imaginar, la función es útil para casi todos porque puede personalizarla para realizar cualquier tipo de atajo o tarea. Desafortunadamente, la función se limita inicialmente a teléfonos con FaceID, lo que significa que los usuarios de iPhone 8 y SE, entre otras cosas, permanecen en la oscuridad. Es difícil imaginar que no sea un hardware secreto de detección de tomas: es casi seguro usar acelerómetros que se usaron en iPhones desde el principio.

Apple no es ajeno a tomar ciertas características como rehenes por ninguna razón en particular que las extensiones de notificación que no son posibles en un teléfono nuevo como el SE. Sin embargo, hacer esto con una función de accesibilidad es inusual. La compañía no anticipó la posibilidad de que el grifo trasero terminara con dispositivos de aplanamiento de botones, pero tampoco apoyó la idea. Esperemos que esta útil característica pronto esté más ampliamente disponible, pero solo el tiempo lo dirá.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *