Il est déjà possible d’utiliser le capteur TrueDepth de son iPhone pour modéliser un objet ou son propre visage, mais les résultats manquent cruellement de précision et sont le plus souvent inexploitables. Des chercheurs de l’université Carnegie-Mellon ont approfondi le procédé via le mode ralenti (ici d’un iPhone X) couplé à une technique de localisation et cartographie simultanées (SLAM). Cette technologie permet d’obtenir un nuage de points 3D particulièrement dense et donc une modélisation 3D très précise (de l’ordre du mm de précision). La touche finale (lissage, retrait des raccrocs, cohérence d’ensemble du visage, etc.) est apportée par une IA de type machine Learning. En tout et pour tout, la modélisation d’un avatar 3D via ce procédé prend entre 30 et 40 minutes, mais c’est sans doute le prix à payer pour obtenir un mini-moi 3D présentable (et créé à 100% sur son iPhone).