Apple a engagé des discussions préliminaires avec Google pour utiliser Gemini dans la nouvelle version de Siri s’appuyant sur l’intelligence artificielle. Cette démarche marque un tournant potentiel vers l’externalisation d’une partie de sa technologie d’IA.

iPhone 16 Prise en Main Siri Nouvelle Interface

Gemini pour faire tourner Siri ?

Apple a récemment approché Google pour explorer la création d’un modèle d’IA personnalisé. Celui-ci servirait de fondation au nouveau Siri prévu pour l’année prochaine, selon Bloomberg. Google a déjà commencé l’entraînement d’un modèle capable de fonctionner sur Private Cloud Compute, les serveurs d’Apple.

Cette initiative s’inscrit dans les efforts d’Apple pour rattraper son retard en intelligence artificielle générative. L’entreprise est arrivée tardivement sur ce marché et peine depuis à gagner du terrain. Plus tôt cette année, Apple avait également exploré des partenariats avec Anthropic et OpenAI, évaluant si Claude ou ChatGPT pourrait devenir le nouveau cerveau de Siri.

Apple reste à plusieurs semaines d’une décision finale concernant l’utilisation de ses modèles internes pour Siri ou le passage à un partenaire externe. L’entreprise n’a pas encore déterminé qui pourrait être ce partenaire.

Google Gemini

Ce possible changement de cap fait suite aux retards d’une mise à jour attendue de Siri. Cette amélioration devait permettre à l’assistant d’exécuter des commandes en exploitant les données personnelles et de laisser les utilisateurs naviguer entièrement par la voix sur leurs appareils. Initialement prévue pour le printemps dernier, cette mise à jour a été reportée d’un an en raison de difficultés techniques.

Un remaniement organisationnel majeur

Cet échec a conduit Apple à écarter John Giannandrea, responsable de l’IA, du développement de Siri. Le projet est désormais supervisé par Craig Federighi, vice-président d’iOS et macOS, et Mike Rockwell, créateur de l’Apple Vision Pro. Ces derniers évaluent l’aide extérieure comme une voie possible pour avancer.

La mise à jour de Siri avait été initialement conçue autour de la technologie développée par l’équipe Apple Foundation Models (AFM). Ce groupe a également créé les grands modèles de langage embarqués qui alimentent les fonctionnalités d’Apple Intelligence, comme la synthèse de texte et la création d’emojis personnalisés.

Dans le but de corriger les défauts de Siri et de commercialiser les fonctionnalités retardées, Craig Federighi, Mike Rockwell et l’équipe de développement dirigée par Adrian Perica ont entamé des rencontres avec Anthropic et OpenAI.

En interne, Apple organise une compétition pour déterminer la meilleure approche. L’entreprise développe simultanément deux versions du nouveau Siri : une surnommée Linwood alimentée par ses propres modèles, et une autre au nom de code Glenwood fonctionnant avec une technologie externe.

Les dirigeants considéraient longtemps Anthropic comme le candidat principal pour un partenariat. Cependant, les conditions financières exigées par cette société ont poussé Apple à élargir ses recherches et à inclure d’autres acteurs. Apple n’exclut certainement pas de conserver ses propres modèles.

Des négociations distinctes d’autres intégrations

Ces discussions restent séparées des autres accords visant à intégrer des chatbots dans Apple Intelligence. L’année dernière, Apple a ajouté ChatGPT comme solution de repli pour Siri concernant les requêtes de connaissances générales, un domaine où l’assistant a longtemps sous-performé. Apple et Google ont déjà publiquement signalé leurs plans pour une intégration similaire de Gemini.

Apple Intelligence iPhone 16

Les pourparlers concernant l’utilisation des modèles de Gemini pour alimenter Siri demeurent exploratoires. Google a déjà conclu des accords similaires et alimente une grande partie des fonctionnalités d’IA sur les smartphones Galaxy de Samsung.

Une rupture potentielle avec la philosophie d’Apple

Certains cadres de l’ingénierie logicielle ont évoqué l’idée connexe de remplacer également les modèles utilisés pour les fonctionnalités d’IA sans lien avec Siri sur les appareils Apple.

Cela représenterait une rupture avec l’approche privilégiée d’Apple. L’entreprise a généralement tenté de maintenir la propriété des fonctionnalités d’IA qui s’exécutent sur les appareils des utilisateurs, visant à garantir sécurité et confidentialité. Cela inclut les capacités d’Apple Intelligence comme les outils d’écriture.

Un tel plan ne fait toutefois pas l’objet d’un développement actif de la part de l’entreprise. Dans le cas d’un partenariat pour Siri, les modèles tiers fonctionneraient sur les serveurs Private Cloud Compute d’Apple, qui utilisent des puces Mac pour le traitement d’IA à distance. Cela signifie que les modèles Siri externes ne s’exécuteraient pas sur les appareils eux-mêmes.