Apple anunció la semana pasada nuevas funciones de accesibilidad que llegarán a finales de este año, incluido el Eye Tracking, que permitirá a los usuarios controlar el iPad o el iPhone con los ojos.
Mediante el uso de Inteligencia Artificial (IA), el Eye Tracking, desarrollado inicialmente para personas con discapacidad, ofrecerá a los usuarios una opción integrada para navegar utilizando la cámara frontal para configurar y calibrar en segundos, con el aprendizaje automático en el dispositivo.
El Eye Tracking no requerirá hardware ni accesorios adicionales.
Con él, los usuarios podrán usar Dwell Control para activar cada elemento, accediendo a funciones adicionales como botones físicos, deslizamientos y otros gestos únicamente con los ojos.
Otra novedad será el Music Haptics, desarrollado también con IA para usuarios con problemas de audición, que ayudará a éstos a escuchar la música a través del Taptic Engine del iPhone.
Sus atajos vocales permitirán asignar frases personalizadas que Siri podrá entender para iniciar atajos y ejecutar tareas.
“Estamos continuamente superando los límites de la tecnología y estas nuevas funciones reflejan nuestro compromiso de larga data de brindar la mejor experiencia posible a todos nuestros usuarios”, resaltó en un comunicado Tim Cook, CEO de Apple.
Las nuevas funciones estarán disponibles con las actualizaciones de software iOS 18 y iPadOS 18.
Con una gran cantidad de funciones de IA en camino, y expectativas de una asociación con OpenAI para usar el ChatGPT en el iPhone, Apple celebrará su conferencia WWDC el próximo 10 de junio.
También trascendió que Apple ha mantenido conversaciones con Alphabet para incorporar el motor de IA Gemini de Google al iPhone.