iOS 12 embarque avec lui la version 2.0 d’ARKit; le jeu d’APIs dédié à la réalité augmentée s’enrichit de nouvelles fonctions, dont une qui tient carrément de la S.F puisque la caméra Truedepth peut désormais suivre précisément le regard, ce qui permet d’envisager des interfaces à piloter avec les yeux (il suffit de cligner les yeux pour « cliquer »). Le « scan » du regard était déjà bien visible dans les nouveaux Animojis et Memojis (le regard des avatars suit très précisément celui de l’utilisateur), mais permettre aux développeurs d’exploiter cette fonction pousse cette technologie un gros cran plus loin. On se dit aussi que ces nouvelles capacités pourraient être fortement appréciées de toutes les personnes souffrant d’un handicap lourd et qui ne peuvent plus bouger les bras ou les mains. Le développeur Matt Moss illustre la fonction dans un tweet vidéo franchement impressionnant. A quand les premières apps contrôlées par le regard ?