Le système d’analyse de photos et de messages d’Apple pour lutter contre la pédopornographie pourrait bien débarquer sur les applications tierces. Le groupe a organisé aujourd’hui une session de questions/réponses avec certains médias à ce sujet.

Apple Analyse Photos iPhone Pedopornographie 1

Une ouverture aux applications tierces en projet

Apple indique des applications tierces pourraient être en mesure d’utiliser son mécanisme, ce qui leur permettrait de détecter les contenus à caractère pédopornographique et ainsi signaler l’utilisateur aux autorités compétentes. Il est toutefois difficile de dire exactement comment cela va fonctionner parce qu’Apple n’a pas partagé de détail.

Une possibilité serait que des applications WhatsApp, Snapchat, Instagram et autres puissent analyser les messages envoyés par les utilisateurs sur leurs plateformes et ainsi détecter quand il y a une personne nue dans un contenu. Les mineurs pourraient ainsi recevoir un avertissement leur indiquant qu’un contenu sexuel se cache derrière la photo envoyée par message. Le fait de l’ouvrir préviendrait les parents. C’est en tout cas comme cela que ça fonctionnera sur l’application Messages d’Apple et ça pourrait l’être tout autant sur les autres applications de messagerie. On soulignera toutefois que WhatsApp a déjà dit être contre ce système.

Une autre possibilité est le fait que la technologie d’Apple puisse analyser les photos qui sont envoyées par les applications sur des services autres qu’iCloud. Dans ce cas, les applications pourraient signaler tout utilisateur qui partage de la pédopornographie.

Il est bon de noter qu’Apple a parlé d’une nécessité de faire plusieurs tests. La disponibilité de son système de lutte contre la pédopornographie pour les applications tierces pourrait donc ne pas être disponible tout de suite. Concernant l’application Messages d’Apple et l’analyse de photos iCloud, ce sera en place avec iOS 15 et macOS Monterey.