iCloud : Apple analyse les photos pour lutter contre la pédophilie
Apple ne veut pas laisser passer l’abus d’enfants, quelle que soit la forme. C’est pour cette raison que le fabricant analyse les photos mises en ligne sur iCloud par les utilisateurs avec pour objectif de détecter celles où il y a des abus (sexuels) avec les enfants.
« Nous utilisons certaines technologies pour aider à détecter le matériel d’abus pédosexuels », a déclaré Jane Horvath, responsable de la protection des renseignements personnels à l’échelle mondiale chez Apple, lors d’une session au CES de Las Vegas.
De son côté, un porte-parole d’Apple a renvoyé The Telegraph vers un paragraphe publié sur son site :
« Apple s’engage à protéger les enfants dans l’ensemble de notre écosystème, quel que soit l’endroit où nos produits sont utilisés, et nous continuons à soutenir l’innovation dans ce domaine. Nous avons développé des protections robustes à tous les niveaux de notre plateforme logicielle et tout au long de notre chaîne logistique. Dans le cadre de cet engagement, Apple utilise la technologie de correspondance d’images pour aider à trouver et à signaler les cas d’exploitation d’enfants. Tout comme les filtres anti-spam dans les e-mails, nos systèmes utilisent des signatures électroniques pour trouver les cas suspects d’exploitation d’enfants. Nous validons chaque correspondance par un examen individuel. Les comptes comportant du contenu d’exploitation d’enfants violent nos conditions générales de service, et tout compte que nous trouvons avec ce matériel sera désactivé ».
Apple n’est pas la seule société à opérer à cette analyse. Facebook, Twitter, Google et d’autres entreprises technologiques le font et passent par un système nommé PhotoDNA. Apple ne dit pas s’il utilise lui-même PhotoDNA.
Même si c’est louable, confidentiel vraiment du coup ? lol 🤓
C’est quand ça les arrange la confidentialité…
Même si je trouve qu’il faut le faire si ça peut aider, encore une fois c’est sous prétexte d’une cause louable qu’Apple avoue faire comme les autres…. Plus tard on apprendra que des humains regardent toutes les photos qui sont signalées par leur algorithme et ils vont s’excuser publiquement et rajouter une option pour désactiver….
Non elle ne fait pas comme les autres
Tout à fait d’accord. Apple joue trop sur l’image de marque, au rire de tomber parfois dans l’hypocrisie. Même si la cause est louable, et je conçoit que c’est un problème et une solution doit y être apportée, je ne trouve pas que cela colle avec le discours d’Apple et de sa « confidentialité et sa sécurité ». Apple dit bien lorsque le FBI demande l’accès à un iPhone (appartement à divers terroriste, menaces…) que cela est catégoriquement impossible dû au chiffrement de l’iPhone et de ses données tout au long du processus (iCloud y compris) et que leur façon de faire restera tel qu’elle. Reste à voir..
donc la photo de mon fils qd il avait un an la flute au vent dans la piscine familliale va etre envoyée au FBI nawak
Renseignez-vous : photoDNA permet de vérifier si une photo stockée sur iCloud est déclarée « pedopornographique » dans une base de données internationale sans la visionner : une histoire de signature numérique / empreinte propre à chaque photo qui est comparée et donc la photo n.est pas visionnée.
Pour moi, Apple reste quand même fidèle à son discours sur la confidentialité.
PhotoDNA creates a unique digital signature (known as a “hash”) of an image which is then compared against signatures (hashes) of other photos to find copies of the same image. When matched with a database containing hashes of previously identified illegal images, PhotoDNA is an incredible tool to help detect, disrupt and report the distribution of child exploitation material. PhotoDNA is not facial recognition software and cannot be used to identify a person or object in an image. A PhotoDNA hash is not reversible, and therefore cannot be used to recreate an image.