L’analyse des photos par Apple pour détecter du contenu pédopornographique inquiète beaucoup de monde, dont des journalistes. Des associations de journalistes germanophones en Allemagne, en Suisse et en Autriche font savoir qu’Apple pourrait très bien analyser d’autres contenus.

Apple Analyse Photos iPhone Pedopornographie 1

Apple assure que son système analysera uniquement les photos des utilisateurs à l’aide du hash. Mais les journalistes notent qu’Apple pourrait théoriquement analyser d’autres types de photos, voire d’autres types de contenus. Les journalistes craignent ainsi un non-respect de leurs sources selon les cas. On pourrait imaginer un gouvernement qui oblige Apple à analyser tel ou tel contenu si le contenu en question ne lui convient pas et fait l’objet d’articles dans la presse.

Les journalistes donnent quelques exemples, comme le fait de détecter des photos de dissidents et de minorités persécutées. Un autre cas évoqué concerne la Hongrie dont la politique va ouvertement à l’encontre de la communauté LGBT.

Le système d’Apple, qui sera en place à compter d’iOS 15, sera d’abord activé aux États-Unis. Mais Apple a déjà dit que les autres pays suivront dans quelques mois. Les journalistes germanophones soulignent au passage qu’ils ont des correspondants aux États-Unis et qu’ils vont connaître l’analyse dès qu’iOS 15 sera disponible au téléchargement.

À l’arrivée, les associations de journalistes veulent que la Commission européenne s’occupe de ce dossier, tout comme les ministères de l’Intérieur de chaque pays et les bureaux chargés respect du RGPD.