Apple veut que Siri lise sur vos lèvres pour mieux comprendre la requête
Beaucoup de personnes (même les employés d’Apple) s’accordent à dire que Siri n’est pas un bon assistant. Apple cherche donc à l’améliorer et un nouveau brevet montre que l’entreprise veut que son assistant puisse lire sur les lèvres.
L’objectif du brevet est de permettre à Siri de détecter les mouvements de la bouche et de la tête, ce qui pourrait améliorer sa précision. Cela signifie que les futurs appareils Apple pourraient activer Siri sans qu’ils soient obligatoirement en train d’écouter en permanence par le biais du micro.
Le brevet porte sur un système qui contrôle l’assistant. Il utilise un capteur pour suivre les mouvements de l’utilisateur pendant qu’il parle et vérifie si les mouvements correspondent à certains mots ou phrases. Si c’est le cas, Siri exécute la tâche correspondante. En d’autres termes, Siri répondra à des éléments spécifiques.
Apple souhaite utiliser les mouvements de la bouche pour rendre les réponses de Siri plus précises. Parfois, les systèmes vocaux se trompent à cause des bruits de fond ou de la présence d’autres personnes. En apprenant à Siri à lire sur les lèvres, le système pourrait éviter ces erreurs.
D’autre part, Apple explique que lorsqu’une personne parle, sa bouche, son visage, sa tête et son cou créent des vibrations et des mouvements. Les capteurs tels que l’accéléromètre et le gyroscope peuvent détecter ces mouvements. Contrairement aux capteurs audio tels que les micros, ces capteurs de mouvement consomment moins d’énergie, de sorte que la détection pourrait permettre de faire du bien à l’autonomie.
Comme pour chaque brevet, il est difficile de savoir si Apple va réellement mettre en place cette technologie ou non avec ses futurs produits.
Aujourd’hui Siri n’entend pas même une phrase de 6 mots…
Le but des assistants vocaux c’est de demander sans être avec l’appareil dans les mains non ? Faudrais deja qu’elle comprenne les requêtes basiques.