FaceTime sur iOS 13 : test de la fonction qui vous fait regarder votre contact dans les yeux
Une nouvelle fonctionnalité apparue dans la troisième bêta d’iOS 13 intrigue. Elle concerne FaceTime et Apple promet de corriger le contact visuel pour donner l’impression que l’on regarde bien son contact dans les yeux, alors qu’on regarde en réalité l’écran de son iPhone et non le capteur photo.
MacRumors propose une vidéo de prise en main de cette fonctionnalité. À gauche, l’appel FaceTime est réalisé depuis un iPhone sous iOS 12 (et sans la nouvelle option par conséquent). À droite, c’est un appel FaceTime depuis iOS 13 avec la fonction en place. Dans les deux cas, la personne qui passe l’appel vidéo regarde son écran. Et pourtant, on peut avoir l’impression qu’il nous regarde droit dans les yeux grâce à iOS 13 (bien que ce ne soit pas parfait).
Il semblerait que cette nouveauté utilise ARKit, le système de réalité augmentée d’Apple. L’iPhone s’appuie sur la caméra TrueDepth pour faire une capture du visage et ensuite ajuster les yeux.
Dans l’immédiat, la nouveauté est réservée aux iPhone XS, iPhone XS Max et au dernier iPad Pro. Apple ne dit pas encore si les iPhone X et iPhone XR pourront en profiter avec une future bêta. Enfin, la fonctionnalité est désactivée par défaut, il faut se rendre dans Réglages > FaceTime et activer « FaceTime Attention Correction » (la traduction arrivera d’ici la version finale d’iOS 13) pour l’avoir.
Fred a déjà écrit un article dessus mais celui-ci est plus complet
C’est du machine learning en temps réel, seul le moteur neuronal de l’A12 en est capable (8 fois plus rapide que celui de l’A11) donc pour l’iPhone X je doute vraiment..