Les Apple Glass permettraient de mieux « voir » dans le noir grâce au LiDAR
Les Apple Glass sont sur les rails. Apple planche dur sur ses lunettes de réalité augmentée, un projet qui aurait déjà dépassé celui du simple concept en interne (plusieurs prototypes seraient parfaitement fonctionnels). Un nouveau brevet décrit un système d’amélioration de la visibilité dans des conditions de faible lumière. Des Apple Glass équipées de LiDAR ou de capteurs de détection de lumière (ou un combo des deux) pourraient ainsi détecter avec précision la forme des objets dans le champ de vision de l’utilisateur, y compris dans le noir (presque) total.
Une fois l’objet repéré, ce dernier serait en quelque sorte « scanné » en AR et sa forme réaffichée bien visible en visuel AR. Evidemment, un tel concept nécessite de mettre au point un logiciel de traitement d’image capable de placer avec l’objet AR exactement au même endroit où se trouve le même objet dans le monde réel, et ce pendant que l’utilisateur est en mouvement. Cette technologie pourrait aussi être utilisée pour réduire les effets du Motion Sickness.