Apple a présenté de nouvelles initiatives dans la lutte contre la pédopornographie, dont un système d’analyse des photos des utilisateurs. Cela concerne les photos qui sont sur iCloud et cela implique aussi l’iPhone. Cela confirme une information qui a été publiée ce matin.

iPhone 12 et iPhone 12 mini Prise en Main

Analyse des photos par Apple en rapport avec la pédopornographie

Avec iOS 15, Apple sera en mesure de détecter les images connues pour les abus sexuels d’enfants en faisant une comparaison avec celles des utilisateurs qui sont sur iCloud. Apple se chargera de signaler les utilisateurs qui ont de tels contenus auprès des organismes qui collaborent avec les forces de l’ordre.

Naturellement, certains peuvent estimer qu’il s’agit d’une violation de la vie privée. Mais Apple assure que son mécanisme est pensé avec la confidentialité. L’analyse des photos se fait directement sur l’iPhone, au lieu d’avoir lieu sur des serveurs. Une comparaison a lieu avec une base de données pour voir une image est la même qu’une autre en rapport avec la pédopornographie. Cela fonctionne également si l’image est en noir et blanc ou a été recadrée. Apple précise qu’il transformera ensuite cette base de données en un ensemble illisible de hachages stockés en toute sécurité sur les appareils des utilisateurs. La technologie de hachage, qui a pour nom NeuralHash, analyse une image et la convertit en un numéro unique spécifique à cette image.

Apple Analyse Photos iPhone Pedopornographie 1

Comment se déroule le processus ? Apple reçoit d’abord une alerte en cas d’images qui semble avoir un rapport avec la pédopornographie. Un employé du fabricant fait alors une vérification pour voir si l’alerte est légitime. Si c’est confirmé, alors l’employé désactive le compte iCloud de l’utilisateur et envoie un signalement aux autorités. Apple assure au passage que son système est « très précis ».

Cette nouveauté concernera d’abord les États-Unis au départ. Mais Apple prévient que le système va débarquer dans d’autres pays au fil du temps.

Des alertes sur iMessage

iMessage Message Images Sexuelles

Une autre initiative d’Apple pour lutter contre la pédopornographie concerne iMessage. L’application Messages va afficher un pop-up pour mettre en garde les enfants et leurs parents lors de la réception ou de l’envoi de photos sexuellement explicites. Du machine learning directement sur l’iPhone est utilisé pour analyser les images. Si une photo se veut sexuelle, l’application Message la floute et l’enfant reçoit un avertissement. Apple ne souhaite pas qu’il l’ouvre. Du côté des parents, il est possible de recevoir une notification lorsque l’enfant ouvre la photo malgré l’avertissement ou envoie une photo sexuelle à un autre contact.

Ce sera en place avec iOS 15 et macOS Monterey. Apple assure que les conversations iMessage sont toujours chiffrées, même avec ce système de détection d’images sexuelles.

Siri proposera des ressources

Siri Prevention Pedopornographie

Enfin, Apple va améliorer Siri en proposant davantage de ressources pour aider les enfants et parents à rester en sécurité et recevoir de l’aide si c’est nécessaire. Par exemple, Siri pourra aider les personnes qui veulent signaler de la pédopornographie. Les organismes qui s’en chargent seront affichés dans une liste.

Ce sera en place avec iOS 15, macOS Monterey et watchOS 8.