Une fois n’est pas coutume, Apple met en avant sa recherche sur l’intelligence artificielle privée. La firme de Cupertino a en effet publié quatre conférences vidéo et un récapitulatif scientifique issus de son Workshop on Privacy-Preserving Machine Learning & AI 2026, un événement consacré aux modèles d’IA capables d’apprendre sans exposer inutilement les données personnelles.

Apprendre sans aspirer toutes les données

Durant deux jours, des chercheurs d’Apple et du monde académique ont exploré les défis du machine learning confidentiel : apprentissage fédéré, modèles de confiance, attaques, sécurité, comptabilité de la confidentialité et risques propres aux modèles de fondation. Apple résume l’enjeu en expliquant que ces travaux cherchent à relier « les cadres théoriques aux applications du monde réel ».

Apple Intelligence Logo Icone

Parmi les interventions mises en avant figure Crypto for DP and DP for Crypto (un système de cryptographie), présentée par Kunal Talwar, chercheur chez Apple. Le programme comprend aussi des conférences sur la factorisation matricielle en ligne, la collecte responsable de données ou bien encore la mémorisation involontaire dans les grands modèles. Du travail (très) pointu.

Des publications qui prouvent le sérieux d’Apple sur l’IA

Chiffrement homomorphe, statistiques privées et modèles de fondation

Apple a également listé 24 travaux scientifiques présentés pendant l’événement, dont trois liés à ses chercheurs actuels ou passés. L’un d’eux porte sur la combinaison du machine learning et du chiffrement homomorphe dans l’écosystème Apple, soit une approche permettant de traiter certaines données chiffrées sans les exposer en clair.

Ces travaux sont évidemment cruciaux au moment où Apple veut intégrer davantage d’IA dans ses appareils sans abandonner son discours historique sur la confidentialité. Face à OpenAI, Google ou Meta, la marque à la pomme cherche à différencier Apple Intelligence par une promesse : produire des modèles d’IA qui tournent en local et qui limitent la circulation des données sensibles.

Ces recherches ne sont pas toujours visibles pour l’utilisateur final, mais elles pourraient bien devenir essentielles pour Apple. Car après tout, l’avenir de l’IA grand public ne se jouera pas seulement sur la puissance des modèles mais aussi sur la confiance accordée à ceux qui les font fonctionner.