Apple a annoncé aujourd’hui de nouvelles fonctionnalités d’accessibilité pour l’ensemble de ses gammes de produits, et notamment pour son casque Vision Pro (Concernant le casque XR, les fonctionnalités  seront disponibles dans visionOS un peu plus tard cette année). Ces nouveautés pourraient transformer le casque en une véritable aide visuelle. Le dispositif exploitera la caméra principale  du Vision Pro pour agrandir des objets réels et virtuels, améliorant ainsi la visibilité pour les personnes malvoyantes. Apple a également intégré via VoiceOver une fonction de description d’environnement alimentées par l’apprentissage automatique, fonction capable de décrire les alentours, identifier des objets ou lire des documents. Une nouvelle API permettra en outre aux développeurs approuvés d’accéder à la caméra du Vision Pro pour créer des applications centrées sur l’accessibilité (comme Be My Eyes), ce qui permettra là encore de proposer une assistance visuelle en temps réel, et sans les mains.

Un GIF illustre d’ailleurs la nouvelle fonction loupe/zoom, et l’on peut constater que cette dernière semble déjà parfaitement intégrée à l’interface du Vision Pro. Par ailleurs, Apple renforce ses capacités en matière d’accessibilité en introduisant un nouveau protocole dans visionOS, iOS et iPadOS, compatible avec les interfaces cerveau-ordinateur (BCI) via son système Switch Control. Cette fonctionnalité permettra aux utilisateurs de contrôler leurs appareils grâce à des méthodes d’entrée alternatives, comme les mouvements de tête détectés par la caméra de l’iPhone, ou, à un stade plus avancé, par des signaux cérébraux. Apple a élaboré cette norme BCI en partenariat avec Synchron, une entreprise spécialisée dans les implants cérébraux, capables de permettre aux utilisateurs de sélectionner des icônes à l’écran par la pensée. Cette technologie semble à priori moins avancée que celle de certains concurrents comme Neuralink, mais l’objectif d’Apple est ici à plus long terme…