D’après une lettre d’Apple destinée à des sénateurs américains obtenue par NBC News, la firme de Cupertino affirme que X et Grok ont enfreint ses règles après la diffusion de deepfakes sexualisés, ce qui l’a poussé a rejeter une première tentative de correction jugée insuffisante avant d’avertir X que l’app Grok pouvait être retirée de l’App Store sans changements supplémentaires. NBC News rapporte aussi que, malgré les restrictions mises en place ensuite, certains usages problématiques auraient continué.

Grok sur la sellette

Une nouvelle fois, Apple a donc discrètement envisagé de retirer Grok de l’App Store après la diffusion massive d’images sexualisées générées sans consentement. Les révélations de la NBC éclairent d’un jour nouveau la manière dont Apple gère en coulisses les applications jugées problématiques lorsque ces dernières touchent à des contenus particulièrement sensibles.

Grok Logo

Une intervention restée discrète pendant la polémique

Au plus fort de la controverse des « deepfakes », Apple était resté publiquement très silencieux, alors même que Grok et X faisaient l’objet de critiques virulentes pour leur rôle dans la création d’images dégradantes visant notamment des femmes et, dans certains cas des mineurs. En arrière-plan pourtant, la situation aurait pourtant été bien plus tendue qu’elle n’en avait l’air.

Selon ces nouvelles informations, Apple considérait que Grok et X enfreignaient ses règles et aurait en conséquence demandé aux équipes de X de revoir en profondeur leur système de modération. Une première réponse apportée par les développeurs n’aurait pas suffi, au point qu’Apple aurait rejeté une mise à jour de Grok et laissé planer la menace d’un retrait pur et simple de l’application !

Une affaire qui souligne les limites de la modération de l’IA

Ce dossier met surtout en lumière un problème plus large : les outils de génération et de modification d’images deviennent de plus en plus puissants, mais les garde-fous peinent à suivre. Même lorsqu’une plateforme annonce des restrictions, certains utilisateurs trouvent encore des moyens de contourner les barrières mises en place, ce qui rend la modération extrêmement complexe. Dans le cas de X, et au vu des réductions massives dans les équipes de modération, il est assez légitime de penser que le réseau social n’a pas vraiment mis sur la table tous les moyens possibles pour arrêter les abus.

Intelligence artificielle

Apple face à un équilibre délicat

Dans cette triste affaire, Apple cherche visiblement à préserver son image de plateforme encadrée… sans pour autant transformer chaque crise en affrontement public avec un développeur majeur. Cette méthode, faite à la fois de pression discrète, de refus ciblés et d’exigences techniques, permet au groupe de garder une marge de manœuvre importante tout en évitant une communication trop frontale.

Pour Apple, l’enjeu dépasse en fait le seul cas Grok, et touche à une question centrale pour les années à venir : jusqu’où un distributeur d’apps peut-il tolérer des outils d’IA puissants et populaires lorsque ces mêmes outils alimentent des abus graves et massifs ?