Le nouveau rapport du Tech Transparency Project (TTP) déplace le débat sur les applications qui dénudent les personnes et tout particulièrement les femmes. Le problème ne serait plus seulement leur présence sur l’App Store, mais le rôle joué par la recherche, l’autocomplétion et les publicités qu’Apple propose pour les rendre plus visibles.

App Store Logo

La recherche de l’App Store devient un point d’entrée

L’enquête prolonge un premier rapport publié en janvier sur la présence de dizaines d’applications capables de générer des deepfakes sexuels. Cette fois, TTP affirme que l’App Store et le Google Play Store sur Android facilitent eux-mêmes leur découverte, parfois par des résultats sponsorisés et parfois par des suggestions de recherche générées automatiquement.

Le groupe dit aussi qu’Apple et Google continuent de laisser apparaître dans leurs boutiques des applications de ce type, dont certaines semblent adaptées aux mineurs. Selon ses relevés, près de 40 % des dix premières applications qui apparaissent pour des requêtes comme « nudify » (dénuder), « undress » (déshabillement) et « deepnude » pouvaient rendre des femmes nues ou légèrement vêtues.

Le rapport cite plusieurs exemples concrets issus de l’App Store. Une recherche avec le mot « deepfake » faisait remonter en premier une publicité pour FaceSwap Video, éditée par DuoFace. Pour tester l’application, TTP a importé la photo d’une femme en pull blanc debout sur un trottoir, puis une vidéo d’une femme torse nu. Après une courte publicité, l’application a généré une vidéo plaçant le visage de la femme habillée sur le corps de la femme à moitié nue.

Une autre recherche, cette fois avec les termes « face swap », a fait apparaître une publicité pour AI Face Swap. L’application propose des modèles prédéfinis et permet aussi d’échanger des visages sur des images importées par l’utilisateur. Le groupe indique avoir importé la photo d’une femme en pull bleu dans un salon et l’image d’une femme torse nu, puis a obtenu un échange de visages sans restriction.

Apple a retiré plusieurs applications

Le rapport met aussi en cause les suggestions automatiques de l’App Store. En saisissant « AI NS » (pour faire un lien avec le mot NSFW), l’outil proposait « image to video ai nsfw », une requête qui faisait ensuite remonter plusieurs applications pour dénuder parmi les dix premiers résultats.

Tech Transparency Project ne s’est pas limité à Apple et Google. Il a aussi contacté plusieurs développeurs d’applications concernées. Dans au moins un cas, un développeur a confirmé utiliser Grok pour la génération d’images, tout en affirmant qu’il n’avait « aucune idée [que l’IA] était capable de produire un contenu aussi extrême ». Il s’est engagé à renforcer ses réglages de modération.

Apple n’a pas commenté directement la demande du groupe. En revanche, après la publication du rapport, l’entreprise a supprimé la plupart des applications identifiées par TTP.