Apple peut rendre ses iGadgets de plus en plus « intelligents », et cela ne passe pas seulement par une énième app ou un Siri plus évolué. Le californien réfléchit aussi à blinder de capteurs son Apple Pencil ainsi que l’iPhone, de façon à ce que ces derniers adaptent leurs usages simplement en fonction de la situation de « saisie ».

th_17345-14766-160623-Stylus-l

th_17345-14768-160623-Stylus-2-l

Un brevet « Stylus with touch sensor » décrit par exemple un Apple Pencil entièrement recouvert de capteurs sous la forme d’électrodes, des capteurs qui peuvent distinguer de multiples points de contacts qui peuvent à leur tour être traduits en action spécifiques sur l’iPad Pro. Ces capteurs pourraient ainsi permettre de distinguer si l’utilisateur est droitier ou gaucher, et adapter le « glisser » du stylet en fonction. Il serait aussi possible de mieux manipuler des éléments à l’écran (comme faire scroller d’un simple mouvement du doigt sur le stylet), de sélectionner certains outils d’une simple pression sur le stylet, voire de jouer sur l’épaisseur du trait sans même passer par l’interface.

th_17345-14767-160623-Hand-l

th_17345-14769-160623-Hand-2-l

Le second brevet concerne l’iPhone et décrit une méthode permettant là encore de déterminer si l’appareil est tenu de la main droite ou de la main gauche, ce qui pourrait avoir une incidence sur la disposition des icônes. Apple prévoit de placer des capteurs sur les bordures de l’iPhone et de les relier à un circuit spécialisé afin de rendre la détection immédiate; la redisposition des éléments de l’UI doit en effet s’effectuer sans aucun délai, sans quoi l’utilisateur risquerait de désactiver la fonction. Les capteurs de mouvements intégrés à l’iPhone pourraient aussi combiner leurs informations à celles de ces capteurs de bordure pour automatiser d’autres fonctions, comme la réception d’un appel téléphonique…