ARKit 4 : toutes les nouveautés (point d’ancrage, API de profondeur, reconnaissance de visage améliorée, etc.)
C’est désormais une « tradition » : la nouvelle version d’ARKit accompagne l’annonce du nouvel iOS. C’est presqu’en toute discrétion qu’ARKit 4 est sorti du bois, alors même que la liste des améliorations est plutôt conséquente. L’outil Location Anchors (point d’ancrage) permet la création d’éléments AR aux (grandes) dimensions life-size parfaitement localisés à un endroit donné du monde grâce aux données de Plans. Cette nouvelle API AR pourrait ouvrir la voie au tourisme AR ou à de nouvelles formes d’expositions artistiques. L’API de profondeur d’ARKit 4 (Depth API) s’appuie sur les capacités du LiDAR de l’iPad Pro (et sans doute des prochains iPhone 12 Pro).
L’objectif consiste ici à obtenir une évaluation de la profondeur précise au pixel près, ce qui améliorera l’occlusion (le fait qu’un objet AR soit masqué en partie ou totalité par un objet réel). Last but not least, la reconnaissance faciale est améliorée (à partir des iPhone dotés d’un A12 Bionic) : trois visages peuvent être reconnus en même temps via l’encoche Truedepth, une amélioration qui se destine essentiellement aux filtres AR de visage (dans Snapchat par exemple) ou aux Memojis-Animojis.