Des détails sur les lunettes connectées d’Apple révèlent les fonctionnalités
Apple accélère le développement de trois appareils s’appuyant sur l’intelligence artificielle, avec en tête d’affiche des lunettes connectées dont la production débutera dès décembre 2026 selon Bloomberg. La firme a stoppé en 2025 le projet d’un Apple Vision Pro allégé et moins cher pour concentrer ses efforts sur ces lunettes sans écran.

Des lunettes pour concurrencer Meta sans écran intégré
Les lunettes connectées d’Apple, qui ont pour nom de code N50, ciblent une sortie publique en 2027 et se positionnent comme une alternative haut de gamme aux Ray-Ban Meta équipées de caméras. Contrairement aux attentes d’un écran embarqué, Apple misera sur une interface reposant exclusivement sur des haut-parleurs, des micros et des caméras. Les utilisateurs pourront passer des appels, activer Siri, déclencher des actions contextuelles, écouter de la musique et captures des photos et vidéos.
Ces derniers mois, Apple a élargi la distribution de prototypes au sein de sa division d’ingénierie matérielle. Apple a d’abord intégré l’électronique et les caméras dans des montures de marques populaires existantes, envisageant même des partenariats industriels à l’image de Meta avec EssilorLuxottica ou Google avec Warby Parker. Finalement, Apple a choisi de concevoir sa propre monture en interne, disponibles en plusieurs tailles et couleurs. Les matériaux privilégient l’aspect premium, avec des éléments acryliques conçus pour une sensation haut de gamme. L’entreprise prépare déjà le lancement de styles additionnels.
Les premiers prototypes se connectaient par câble à une batterie externe et un iPhone, mais les versions récentes intègrent tous les composants dans la monture.
Une architecture à double caméra héritée du Vision Pro
La paire de lunettes connectées d’Apple embarque deux capteurs : une caméra haute résolution pour l’imagerie et un second dédié à la vision par ordinateur, une technologie similaire à celle du Vision Pro. Ce capteur fournit un contexte environnemental, permettant d’interpréter précisément l’entourage et de mesurer les distances entre objets.
Apple compte différencier ses lunettes sur deux axes : qualité de fabrication et technologie photographique. L’objectif affiché transforme le produit en compagnon IA permanent, capable de comprendre ce qu’un utilisateur voit et fait en temps réel.
Un Siri visuel pour des usages quotidiens enrichis
Les porteurs pourront viser un objet pour en obtenir une identification et recevoir de l’aide sur des tâches quotidiennes, comme interroger les ingrédients d’un plat. Apple explore aussi des fonctions avancées : lecture de texte imprimé avec conversion en données numériques (avec l’ajout automatique d’informations d’une affiche événementielle à un calendrier) ou des rappels contextuels déclenchés lorsqu’un utilisateur regarde la bonne étagère en supermarché.

Iintelligence visuelle sur iPhone
Pour la navigation, Siri référencera des points de repère physiques plutôt que des instructions génériques, guidant les utilisateurs en mentionnant des bâtiments ou véhicules visibles avant un virage. Apple dispose déjà de capacités d’IA visuelle via la fonction « Intelligence visuelle » sur iPhone, mais la technologie deviendrait plus accessible avec ces lunettes.
À long terme, Apple vise des lunettes connectées dotées d’un écran de réalité augmentée offrant des données et des visuels enrichis, mais un lancement potentiel reste éloigné de plusieurs années. Le Vision Pro abordable, baptisé N100 et conçu comme une passerelle vers ces appareils de réalité augmentée, a été abandonné l’an dernier au profit d’une conception de lunettes plutôt qu’un casque fermé.

Activer SIRI… mais comme il sait rien faire …