C’est une annonce choc : Apple a confirmé dans un document technique que les modèles de langage qui composent la charpente d’Apple Intelligence ont été pré-entrainés sur des processeurs Tensor conçus par Google ! La firme de Cupertino a ainsi jeté son dévolu sur l’unité de traitement tensoriel (TPU) de Google plutôt que de passer commande des processeurs dédiés de Nvidia, comme cela est presque devenu la norme pour un gros pan de l’industrie informatique. Le document technique d’Apple ne mentionne pas spécifiquement Google (ou Nvidia), mais indique que son Apple Foundation Model (AFM) et le serveur AFM ont été entraînés sur des « clusters de TPU Cloud », ce qui pointe directement vers les Tensor de Google.

Tensor Google

Un autre document technique spécifiait déjà au mois de juin l’usage de clusters  TPU pour l’entrainement d’Apple Intelligence, mais cette information était largement passée sous les radars. Pas cette fois donc… Le choix de puces Tensor confirme aussi en creux que les processeurs développés par Apple (série Apple Silicon M) ne sont pas (encore) taillés pour ce type de traitement malgré la présence d’unités NPU (Neural Processor Unit). Evidemment, le fait qu’Apple privilégie le TPU de Google ne signifie pas pour autant que Nvidia a du souci à se faire : le fabricant domine en effet de la tête et des épaules le marché des puces d’entraînement d’IA haut de gamme, au point que la demande excède l’offre ce qui génère de longs temps d’attente pour les clients de Nvidia. Même Google, qui a pourtant ses propres clusters TPU, utilise massivement les GPU de Nvidia.