Un rapport publié aujourd’hui par le Tech Transparency Project (TTP) révèle que l’App Store d’Apple et le Play Store de Google regorgent d’applicationts permettant de déshabiller des personnes, et tout particulièrement des femmes, grâce à l’intelligence artificielle, à l’instar de Grok. Malgré des discours officiels axés sur la sécurité, l’App Store et le Play Store rendent ces outils facilement accessibles, générant au passage des profits colossaux pour les deux géants de la tech.

App Store Logo Icone

Un business à 117 millions de dollars qui profite Apple et Google

Selon les données du cabinet d’analyse AppMagic citées par le TTP, les applications identifiées ont été téléchargées plus de 705 millions de fois à travers le monde. Elles ont généré un chiffre d’affaires cumulé de 117 millions de dollars. Le problème est le suivant : puisqu’Apple et Google prélèvent une commission sur chaque transaction (jusqu’à 30 %), ces entreprises profitent directement et financièrement de cette activité, pourtant contraire à leurs propres règles.

Cette situation place Apple dans une position délicate. La firme a longtemps justifié ses commissions élevées lors de ses batailles antitrust contre Epic Games en arguant que cet argent finançait la modération manuelle et automatisée nécessaire à la sécurité de l’App Store. Or, le rapport démontre que des catégories entières d’applications abusives passent à travers les mailles du filet. Au moins l’une de ces applications incriminées était même classée pour les 9 ans et plus sur l’App Store.

Des politiques de modération inefficaces face à l’IA

Les tests menés par le TTP sont sans appel. En utilisant de simples mots-clés comme « nudify » (dénuder) ou « undress » (déshabiller), les chercheurs ont facilement trouvé ces applications, dont certaines font ouvertement leur publicité autour de ces termes. Sur les applications testées avec des images de femmes générées par IA, 55 applications Android et 47 applications iOS ont accédé aux demandes de créer du contenu sexualisé non consenti via leurs fonctionnalités gratuites.

Ces apps se divisent en deux catégories : celles générant des images ou vidéos à partir de prompts textuels et les celles de « face swap » qui superposent le visage d’une personne sur un autre corps. Le rapport détaille des exemples concrets : une application proposait par exemple sur son écran d’accueil des modèles vidéo intitulés « déchirer les vêtements » ou « secouer la poitrine ».

Si le problème des images abusives prédate l’intelligence artificielle générative, cette technologie a supprimé toutes les barrières techniques, permettant désormais de produire ce contenu en quelques secondes à grande échelle. Le TTP conclut sévèrement que les applications identifiées ne représentent qu’une « fraction » de l’offre réelle et prouvent que les entreprises tech « ne contrôlent pas efficacement leurs plateformes ni n’appliquent leurs propres politiques ».

Un porte-parole d’Apple a indiqué à CNBC que l’entreprise a supprimé de l’App Store 28 applications identifiées comme problématique par le TTP. Le fabricant a également averti les développeurs d’autres applications qu’ils risquaient d’être retirés de l’App Store s’ils ne remédiaient pas aux violations des règles.