iOS 17.2 : Apple détaille les données qu’il récupère dans Plans et améliore les fonctions AR de l’app
Apple améliore les fonctions de Plans en réalité augmentée (non, on ne parle pas ici de l’Apple Vision Pro), des fonctions qui ont besoin de certaines données pour une localisation précise des éléments AR affichés sur l’écran de l’iPhone (comme les PoI affichés en surperposition de l’environnement réel). Sur la page consacrée à l’app, Apple précise qu’il récupère plus de données avec cette nouvelle version de Plans, mais qu’aucune donnée personnelle de l’utilisateur n’est envoyée ou stockée vers un serveur distant. L’une des fonctions AR de Plans permet d’utiliser « l’iPhone pour scanner son environnement et détecter les points de caractéristiques des bâtiments à proximité et d’autres caractéristiques physiques ». Et là encore, très peu d’infirmations sont envoyées vers des serveurs distants (et rien n’est stocké).
Les nouvelles informations traitées vont aussi permettre de fournir des itinéraires de marche en AR nettement plus précis et détaillés. Les seules données récupérées (et non stockées) sont évidemment chiffrées lors de l’envoi et Apple précise qu’il ne peut pas identifier l’utilisateur à partie de ces mêmes données. Les données 3D récupérées lors du Scan de l’environnement en mode AR sont traitées de telle façon qu’il est impossible d’identifier l’endroit scanné. Et bien sûr, in fine, l’utilisateur peut désactiver les fonctions AR de Plans dans les réglages de l’app et garantir ainsi que rien ne soit remonté à Apple.