Le chercheur en sécurité Jan Kaiser est parvenu a « cracker » le fichier d’une séquence filmée à l’iPhone 13 avec le mode cinématique activé. Ce fichier contient une vidéo, une piste audio, mais aussi une carte vidéo des distances (affichée en noir et blanc) en 320 sur 180 pixels, ce qui explique que le focus de ces vidéos cinématiques peut être modifié (partiellement) après enregistrement. Un constat s’impose : cette carte des distances n’est pas réalisée à partir du LiDAR, ce qui fait que l’on ne distingue que les seuls objets/sujets proches.

Pour autant, Jan Kaiser conclut un peu vite que le mode cinématique n’est efficace que sur les seuls objets rapprochés. C’est pourtant à la fois juste… et faux puisque les exemples fournis par Apple (et d’autres réalisés dans des tests ultérieurs) montrent que le focus du mode cinématique permet vraiment de passer rapidement d’un sujet assez proche… à un sujet éloigné (un individu tout au fond de la pièce par exemple). Ce n’est donc pas la carte à courte distance qui effectue le focus sur le sujet éloigné au moment de l’enregistrement de la scène, mais bien plus probablement le LiDAR, même si la donnée du LiDAR n’est pas conservée dans le fichier final (problème de taille de fichier ?). Si Apple n’a pas directement utilisé la carte LiDAR sur le fichier final c’est aussi sans doute parce que la fonction cinématique est disponible sur les iPhone 13… et que ces derniers n’ont pas de LiDAR.

C’est sans doute pour cela aussi que l’éventail des modifs après enregistrement a laissé sur sa faim la plupart des testeurs : sans possibilité de varier efficacement le focus sur les sujets éloignés, cette mini-fonction de post prod parait finalement bien accessoire.