Voilà qui ne va pas arranger les affaires d’Apple. Le développeur Asuhariet Yvgar affirme être parvenu – par rétro-ingénierie – à récupérer le code de l’algorithme de hachage utilisé par Apple sous iOS 15 afin de vérifier que les photos de l’utilisateur ne contiennent pas de contenus pédopornographiques. L’algorithme NeuralHash, qui était bien planqué dans les tréfonds d’iOS 14.3, a été ensuite recompilé en python et soumis à des tests d’intégrité par d’autres utilisateurs. L’un de ces vérificateurs est parvenu à créer un faux positif, c’est à dire une correspondance du code de hachage pour deux images totalement différentes, une anomalie pourtant « impossible » selon les dires d’Apple.

Apple Analyse Photos iPhone Pedopornographie 1

Face au bad buzz inévitable qui risque de suivre cette malheureuse découverte, Apple a prestement réagi auprès du site Motherboard, expliquant que la version de l’algorithme NeuralHash récupérée par Yvgar n’était pas identique à celle qui serait finalement implémentée dans iOS 15. Apple rappelle que son système de hachage a été soumis à évaluation à des experts en sécurité informatique, qu’un serveur contrôlera une seconde fois chaque correspondance de hachage et qu’in fine des employés en chair et en os effectueront la vérif finale.

L’explication d’Apple n’a pas vraiment convaincu Matthew Green, enseignant en Cryptographie à la Johns Hopkins University, qui estime que si le premier code a permis de générer des faux-positifs, il en sera de même pour l’algorithme final implémenté dans iOS 15. Un autre chercheur, Nicholas Weaver, estime cependant que le contrôle humain en bout de chaîne devrait annuler les risques de faux positifs, d’autant qu’une trentaine d’images doivent correspondre pour que le système alerte les autorités.

Un point n’est malheureusement pas abordé : qu’en sera t-il en si une entité (une dictature par exemple) décide de se débarrasser d’un individu (un opposant politique par exemple) en piratant son iPhone et en balançant dessus des images compromettantes ? Cette technique de « création du coupable » a déjà été utilisée par le passé, et elle sera à priori largement facilité par le système d’Apple puisque les autorités seront directement alertées avant même que l’individu cible puisse prendre connaissance du piratage.