Apple a fait de la confidentialité un pilier central de sa stratégie en matière d’intelligence artificielle, notamment grâce à l’exécution locale d’une partie d’Apple Intelligence sur les iPhone, iPad et Mac. Mais voilà, de nouveaux travaux de recherche rappellent qu’un modèle embarqué n’est pas automatiquement synonyme de sécurité renforcée. Des spécialistes en cybersécurité affirment en effet avoir réussi à contourner certaines protections du système à l’aide de techniques d’injection de prompts.

Des attaques qui visent directement le modèle intégré au système

Les chercheurs ont obtenu un taux élevé d’attaques réussies en combinant des instructions malveillantes déguisées, des formulations spécifiques et des manipulations de caractères Unicode destinées à brouiller la lecture humaine tout en restant interprétables par le modèle. L’objectif n’est pas ici de pirater l’appareil au sens classique du terme, mais de pousser l’IA à produire des réponses non prévues ou à influencer le comportement d’applications qui exploitent les API d’Apple Intelligence.

Apple Intelligence Logo

Le sujet est particulièrement sensible car Apple a intégré son modèle au cœur de ses systèmes d’exploitation afin d’offrir aux développeurs une interface unifiée tout en limitant l’exposition des données au cloud. Cette approche réduit certes nombre de risques, mais n’offrirait donc pas une garantie totale.

La confidentialité ne suffit pas à garantir l’invulnérabilité

Les chercheurs estiment que ce type de faille reste, à ce stade, théorique et sans preuve publique d’exploitation à grande échelle. Apple aurait néanmoins renforcé certaines protections dans iOS 26.4 et macOS 26.4, signe que la menace est prise au sérieux. Au final, le choix d’Apple d’exécuter un modèle en local protège globalement mieux la vie privée, mais ne met pas ce modèle hors de portée de certains types d’attaques. Au vu de l’importance que revêt le lancement d’Apple Intelligence, on peut gager que la firme de Cupertino tentera de corriger au plus vite ces nouvelles failles.