Pédopornographie : une banderole « Ne scannez pas nos téléphones » a survolé l’Apple Park
L’EFF a sorti le grand jeu avec une banderole tirée par un avion qui a survolé l’Apple Park pour critiquer les mesures anti-pédopornographiques d’Apple. « Apple : ne scannez pas nos téléphones ! eff.org/apple », peut-on lire.
Une banderole pour critique les mesures d’Apple
Cette intervention de l’EFF a eu lieu un jour bien spécifique. En effet, l’ONG internationale de protection des libertés sur Internet révèle l’avoir fait le 14 septembre, à savoir le jour où Apple a tenu sa keynote pour présenter les iPhone 13, Apple Watch Series 7, iPad mini 6 et iPad 9.
Sur son site, l’EFF dit avoir choisi d’utiliser cette forme de publicité aérienne pour s’assurer que les plans d’Apple contre la pédopornographie ne passent pas inaperçus. L’ONG a également fait voler la même bannière au-dessus du 1 Infinite Loop, l’ancien siège social d’Apple que le groupe a en grande partie quitté il y a quelques années.
L’une des mesures d’Apple pour lutter contre la pédopornographie consiste à scanner les photos sur les iPhone des utilisateurs. Le scan s’effectue au niveau du hash de chaque photo, celui-ci est ensuite comparé avec une base de données. Apple fait le nécessaire pour prévenir les autorités en cas de correspondance.
Cette fonction de scan devait initialement voir le jour avec iOS 15 (d’abord aux États-Unis). Mais Apple a récemment annoncé que la fonction est reportée à plus tard au vu des critiques.
Sauf que le site est mensonger
n’étant pas du tout avec ces Con..rd de pédo.. mais l’action est Grandiose ! ;)))
Je ne comprend pas : on compare le hash des photos donc on ne voie pas les photos :
On prend ou enregistre une photo, le hash est générer envoyer comparer si tout est ok rien ne se passe si la photo correspond à une de leur base ben on est balancé à la police je ne voie pas l’atteinte à la vie privée (a moins d’être pedo***île mais bon c’est pas plus mal de choper ces c***nard)
Le problème reste qu’il y a un accès direct à nos photos. Si nous étions dans un monde de bisnounours (dans lequel nous n’aurions du coup pas besoin de ce contrôle…) il n’y aurait aucun soucis. Mais on connaît à notre époque la dérive avec les données privées des utilisateurs. Du coup effectivement ça pose problème. Qu’on se batte contre les pedophiles oui qu’on ai pour cela accès aux donnes de tous les utilisateurs non.
Exactement. Rien a dire de plus.
Ça commence comme ça et ensuite ça sera les données d’identification faciale,
Ouais dur dur pour le mec qui a une tete de gland 🙄😂
+1000
Qu’est ce qui est le plus important ?
Protéger notre vie privé ou nos enfants ? Dans quel cadre ?
Celui qui accepte de perdre sa liberté pour sa préserver sécurité finit par perdre les deux