Apple fait face à une nouvelle plainte autour de la gestion de son App Store. La société Ex-Human, spécialisée dans les applications d’intelligence artificielle conversationnelle et de génération d’images, accuse le groupe californien d’avoir retiré ses services de manière abusive, tout en bloquant une part importante de ses revenus.

Un conflit né du retrait d’applications IA jugées problématiques

Au cœur du dossier se trouvent Botify AI et Photify AI, deux applications éditées par Ex-Human. L’entreprise reproche à Apple d’avoir invoqué de manière floue une activité malhonnête ou frauduleuse sans fournir, selon elle, d’explications suffisamment détaillées. Ex-Human affirme également que plusieurs centaines de milliers de dollars de revenus auraient été retenus à la suite de cette décision, ce qui aurait fortement aggravé la situation économique de l’éditeur.

Ce que la plainte ne dit pas, c’est que les applications concernées ont été associées à des usages particulièrement sensibles voire illicites, notamment des conversations sexualisées impliquant des personnages se présentant comme des mineurs, ainsi que des détournements d’images de personnes réelles. Même lorsqu’une entreprise invoque des défaillances ponctuelles de modération, l’App Store ne peut pas faire autrement que de réagir pour ne pas subir les retombées de ces dérapages.

App Store : quid de la cohérence dans l’application des règles ?

La plainte ne se contente pas de contester la décision de fond mais cherche aussi à fragiliser Apple sur le terrain de la cohérence. Ex-Human soutient en effet que le groupe applique ses règles de manière arbitraire, et va jusqu’à suggérer que cette sévérité pourrait être liée à des intérêts concurrentiels dans le domaine de l’IA. Cet argument paraît ambitieux, mais il s’inscrit dans un climat réglementaire où Apple est déjà observé de près sur la manière dont il gère l’accès à sa plateforme.

La vraie faiblesse potentielle d’Apple pourrait être ailleurs

Le dossier pourrait toutefois se révéler moins dangereux pour Apple sur le plan de la censure que sur celui de l’égalité de traitement. Si d’autres applications ou services comparables ont bénéficié d’une réponse moins brutale face à des dérives proches, la firme pourrait se retrouver sommée de justifier plus finement ses arbitrages. Dans l’univers de l’App Store, la question n’est plus seulement de savoir si une app a enfreint les règles, mais aussi comment et pourquoi Apple choisit de sanctionner certains acteurs plus vite que d’autres.

IA génératives : un test grandeur nature pour l’App Store

Cette affaire dépasse donc le simple contentieux entre une start-up ambitieuse et Apple, et illustre la difficulté croissante à encadrer des applications d’IA capables de générer des interactions et/ou des visuels qui peuvent très vite basculer vers des usages problématiques. À mesure que les outils génératifs deviennent plus puissants, les plateformes vont devoir trancher plus souvent, plus vite et en même temps avec davantage de transparence. Une équation compliquée à résoudre donc…

Au-delà du litige commercial, l’affaire met donc en lumière un sujet de plus en plus explosif depuis quelques années : jusqu’où une plateforme peut-elle vraiment aller pour faire respecter ses règles lorsque les usages de l’IA flirtent avec des contenus sensibles, voire potentiellement illicites ?