Le #BeautyGate bat son plein; Apple aurait donc sciemment introduit dans ses iPhone XS/XS Max un traitement de lissage des défauts du visage en mode portrait et selfie. Pour l’expert en photographie Sebastiaan de With, ces critiques sont malvenues et proviennent essentiellement d’une mauvaise compréhension de ce qu’à fait Apple avec les capteurs photos de l’iPhone XS.

Car avec l’iPhone XS, la technologie de prise de vue change du tout au tout; presqu’avant même que l’utilisateur ait appuyé sur le bouton déclencheur, l’iPhone XS prend une série de clichés en mode rafale, ces clichés tiennent compte de différents paramètres : le focus est tantôt fait sur l’avant plan ou l’arrière plan, l’ISO est variable, etc. Ces clichés sont ensuite combinés grâce à la puce neuronale du A12 afin de constituer une photographie affichant un HDR impeccable, une grande dynamique, tout en gardant un très bon niveau de détails.

A gauche, un cliché RAW capturé avec l’iPhone X, à droite avec l’iPhone XS; Crédits Photo Sebastian De With

Sebastian de With explique que pour parvenir à ce résultat, Apple a du augmenter énormément la vitesse de l’obturateur et aussi accroitre la sensibilité ISO (volume de lumière qui rentre dans le capteur), l’un compensant l’autre : un obturateur plus rapide laisse passer moins de lumière, mais un ISO plus élevé compense cette « perte » lumineuse et permet de garder une exposition correcte.

Mais il y a un soucis avec cette méthode, car elle génère beaucoup plus de « bruit » sur le cliché, un bruit qui ne peut pas être éliminé de façon « mécanique et physique » eu égard au petit volume du capteur. Apple est donc obligé ici d’appliquer un traitement lourd pour éliminer les bruits de l’image (artefacts), et il n’est alors pas rare que le logiciel, tout « intelligent » qu’il soit, ne fasse pas la distinction entre un artefact qui ne devrait pas être dans l’image et un grain de beauté par exemple. Les analyses et comparatifs de clichés sur d’autres sujets que le visage confirment d’ailleurs cette hypothèse : Apple applique un filtre de traitement pour réduire le bruit dans l’image, pas pour « améliorer » les visages lors des clichés en mode selfie.

Le procédé de Local Contrast, qui améliore le contraste perçu en accentuant le clarté des bordures des zones claires et en accentuant la noirceur des bordures des zones sombres; il n’y a pourtant pas plus de détails dans l’image du bas. Ce même procédé est très souvent utilisé dans les logiciels de traitement photo des smartphones, notamment pour améliorer artificiellement le contraste sur les visages.

Il existe une seconde explication, complémentaire à la première : lors de la prise de cliché, Apple applique un traitement Smart HDR afin de retrouver une exposition de l’image beaucoup plus proche du réel alors que nombre de logiciels de traitement « augmentent » artificiellement le contraste perçu en accentuant les ombres ou les zones claires (ce qui est en fait une illusion, il n’y a pas plus de détails dans l’image). Les utilisateurs sont ainsi habitués à des clichés « faux » mais qui donnent l’impression d’être plus contrastés alors que les clichés Smart HDR des iPhone XS et XS Max semblent soudain plus « doux » à côté, et donc plus lissés.

Mais tout n’est pas rose du côté d’Apple : Sebastian de With confirme que le traitement logiciel d’Apple est trop radical et que la gestion de l’ISO aboutit parfois à des clichés surexposés, ce qui annule les bénéfices attendus du Smart HDR. Il y a donc de grandes chances que lorsqu’Apple a « reconnu » le problème, elle n’a pas en fait reconnu « avoir appliqué un filtre de lissage des défauts du visage en mode selfie« ; il s’agissait en fait de pointer les carences du système de réduction des bruits numériques générés par le Smart HDR.