L’objectif étant noble (la lutte contre la pédopornographie), Apple ne s’attendait sans doute pas à un tel retour de bâton après la confirmation de l’analyse des photos privées de TOUS les utilisateurs d’un iPhone ou iPad sous iOS 15/iPad OS 15. Un adage dit pourtant que « l’enfer est pavé de bonnes intentions », mais Apple a pris sa décision et ne fera sans doute plus marche arrière. Devant la multiplication des protestations, la firme de Cupertino a donc publié un long FAQ (questions/réponses) afin de clarifier quelques uns des nombreux points qui font débat :

Qui peut utiliser la sécurité des communications dans Messages ?
Cela signifie-t-il que Messages partagera des informations avec Apple ou les forces de l’ordre ?
Cela casse-t-il le chiffrement de bout en bout dans Messages ?
Cette fonctionnalité empêche-t-elle les enfants vivant dans des foyers abusifs de demander de l’aide ?
Les parents seront-ils avertis sans que les enfants ne soient prévenus et n’aient le choix ?
Cela signifie-t-il qu’Apple va scanner toutes les photos stockées sur mon iPhone ?
L’outil téléchargera-t-il des images CSAM sur mon ‌iPhone‌ pour les comparer à mes photos ?
Pourquoi Apple fait-il cela maintenant ?
Le système de détection CSAM dans ‌iCloud Photos‌ peut-il être utilisé pour détecter des choses autres que CSAM ?
Les gouvernements pourraient-ils forcer Apple à ajouter des images non CSAM à la liste de hachage ?
Des images non CSAM peuvent-elles être « injectées » dans le système pour signaler des comptes pour des éléments autres que CSAM ?
La détection CSAM dans ‌iCloud Photos‌ signalera-t-elle faussement des personnes innocentes aux forces de l’ordre ?

enfant boudeur

Comme on peut s’en douter, les réponses sont à chaque fois du bon côté de la barrière : le chiffrement bout en bout ne serait pas cassé dans Messages (malgré le contrôle des images « sensibles » envoyées via iMessage), l’outil ne téléchargera pas d’ images CSAM sur l’ iPhone‌ pour les comparer aux photos de l’utilisateur (principe du hachage), les gouvernements ne pourront pas  forcer Apple à ajouter des images non CSAM à la liste de hachage, les faux positifs seront impossibles, etc.

En préambule de ce FAQ massif, Apple explique rappelle les spécificités des outils de contrôle qui seront mis en place à la fois dans Messages et au niveau de la bibliothèque de photos :

Ces deux fonctionnalités ne sont pas identiques et n’utilisent pas la même technologie.

La sécurité de la communication dans Messages est conçue pour donner aux parents et aux enfants des outils supplémentaires pour aider à protéger leurs enfants contre l’envoi et la réception d’images sexuellement explicites dans l’application Messages. Cela ne fonctionne que sur les images envoyées ou reçues dans l’application Messages pour les comptes enfants configurés dans le partage familial. L’outil analyse les images sur l’appareil et ne modifie donc pas les garanties de confidentialité des messages. Lorsqu’un compte enfant envoie ou reçoit des images sexuellement explicites, la photo sera floue et l’enfant sera averti […]. Par mesure de précaution supplémentaire, les jeunes enfants peuvent également être informés que, afin de s’assurer qu’ils sont en sécurité, leurs parents recevront un message lors de la réception de messages ».

La deuxième fonctionnalité, la détection CSAM dans iCloud Photos, est conçue de façon à empêcher CSAM d’accéder aux photos iCloud sans fournir d’informations à Apple sur des photos autres que celles qui correspondent aux images CSAM connues. La possession d’images CSAM est illégale dans la plupart des pays, y compris les États-Unis. Cette fonctionnalité n’affecte que les utilisateurs qui ont choisi d’utiliser iCloud Photos pour stocker leurs photos. Cela n’affecte pas les utilisateurs qui n’ont pas choisi d’utiliser iCloud Photos. Il n’y a aucun impact sur les autres données sur l’appareil. Cette fonctionnalité ne s’applique pas aux messages.