Apple vient de décrocher un brevet qui dévoile (à priori) une avancée majeure dans le domaine du son immersif. La technologie décrite permettrait ainsi de transformer n’importe quel flux stéréo classique en une expérience audio tridimensionnelle avancée, grâce à l’utilisation de modèles d’apprentissage automatique capables de générer un champ sonore en Higher Order Ambisonics (HOA).

Du son stéréo à l’immersion totale

Contrairement aux systèmes actuels qui reposent sur des enregistrements multicanaux spécifiques ou des micros dédiés, la solution d’Apple exploite un réseau neuronal pour extraire l’ambiance d’un signal stéréo, la convertir en ambisonie de premier ordre, puis l’enrichir en HOA. Cette approche offre une spatialisation plus précise, avec une meilleure localisation des sources et une sensation d’espace nettement plus réaliste.

Spatial audio brevet

Une technologie clé pour le Vision Pro et les AirPods

Le brevet prévoit un rendu adaptable à de nombreux environnements : écoute binaurale au casque, systèmes home cinéma, haut-parleurs d’ordinateurs portables ou encore expériences de réalité mixte. Le traitement peut fonctionner en temps réel, avec suivi de la tête et adaptation dynamique de la scène sonore, un point essentiel pour le Vision Pro et les futurs appareils de spatial computing. Cette innovation s’inscrit dans la stratégie d’Apple visant à généraliser l’audio spatial sur l’ensemble de son écosystème : AirPods, iPhone, iPad, Mac et services comme Apple Music ou Apple TV. Elle ouvre aussi la voie à la modernisation de catalogues audio existants sans nécessiter de remasterisation coûteuse.

À terme, cette approche pourrait faire de l’immersion sonore une expérience par défaut sur les appareils Apple, renforçant ainsi l’impact des contenus multimédias et interactifs dans un environnement de plus en plus tourné vers la réalité augmentée et virtuelle (Vision Pro/Air, lunettes Apple Glasses, etc.).