Apple est sûr que ses lunettes connectées seront meilleures que celles de Meta
Apple prépare ses propres lunettes connectées, mais seront-elles meilleures que celles de Meta ? En interne, les employés pensent réellement que la réponse à cette question est oui.

Des lunettes avec des écosystèmes et IA différents
Mark Gurman de Bloomberg explique que les employés d’Apple qui travaillent sur les premières lunettes connectées de l’entreprise sont convaincus que leur modèle sera meilleur, même si Meta est présent sur le marché depuis plusieurs années et collabore avec certaines des plus grandes marques de lunettes, telles que Ray-Ban et Oakley.
Les appareils rivaux se distingueront par leurs écosystèmes et leurs moteurs d’intelligence artificielle (Siri pour Apple et Meta AI pour Meta), mais Apple cherche aussi à se démarquer sur d’autres aspects. Le fabricant d’iPhone ambitionne d’utiliser des matériaux plus haut de gamme et d’intégrer un plus grand nombre de caméras. Là où les modèles de Meta reposent sur une seule caméra capable de basculer entre un mode de vision par ordinateur à faible consommation et un mode de capture d’images (photos et vidéos), Apple prévoit d’équiper ses lunettes de capteurs distincts pour chaque fonction. À ce stade, chacune des deux entreprises semble persuadée que son approche est la meilleure.
Vers un lancement pour 2027
Il y a quelques jours, quelques informations ont fuité concernant la paire d’Apple. Le lancement aurait lieu en 2027 et on retrouverait une interface reposant exclusivement sur des haut-parleurs, des micros et des caméras. Les utilisateurs pourront passer des appels, activer Siri, déclencher des actions contextuelles, écouter de la musique et capturer des photos et vidéos.
Un autre élément important sera la présence d’un Siri visuel. Les utilisateurs pourront viser un objet pour en obtenir une identification et recevoir de l’aide sur des tâches quotidiennes. Apple explore aussi des fonctions avancées : lecture de texte imprimé avec conversion en données numériques (avec l’ajout automatique d’informations d’une affiche événementielle à un calendrier) ou des rappels contextuels déclenchés lorsqu’un utilisateur regarde la bonne étagère en supermarché.
Pour la navigation, Siri référencera des points de repère physiques plutôt que des instructions génériques, guidant les utilisateurs en mentionnant des bâtiments ou véhicules visibles avant un virage.
