« Face je perds, pile tu gagnes ». Sous la pression de nombre d’ONGs et d’ organisations pour les droits et libertés civiques, Apple avait dû retirer sa procédure de scan de l’iPhone permettant de détecter des images pédopornographiques (et contacter automatiquement les services de police si nécessaire). Ce retrait n’a pas vraiment eu l’heure de plaire au commissaire australien pour la sécurité en ligne, qui le 30 août dernier avait demandé à Apple ainsi qu’ à Google de détailler leurs mesures anti-CSAM (contenu pédopornographique). Les deux firmes avaient 30 jours pour répondre à cette demande de précision et il semble bien que les réponses fournies n’ont pas vraiment convaincu.

sécurité

La commissaire Julie Inman Grant a ainsi qualifié d’« alarmantes » les précisions apportées par Apple, et a pointé du doigt « une utilisation clairement inadéquate et incohérente de la technologie largement disponible pour détecter les contenus d’abus d’enfants ». Malgré cette mise au point brutale du régulateur australien, il y a peu de chances qu’Apple change de méthode, qui consiste actuellement à permettre aux parents de configurer leurs appareils pour alerter l’enfant si de la nudité est détectée dans les photos envoyées via iMessage. Le cloud (iCloud) ne peut plus être surveillé de toute façon puisqu’Apple vient d’appliquer le chiffrement de bout en bout à son nuage.