Deux Mac Studio suffisent pour faire tourner DeepSeek R1 en local
Alex Cheema est le fondateur d’EXO Labs, une entreprise spécialisée dans l’IA et axée sur le développement de systèmes d’IA fonctionnant localement sur des appareils que les utilisateurs possèdent et contrôlent. Apple a fourni au startupper deux Mac Studio M3 Ultra, chacun équipé de 512 Go de mémoire unifiée. En moins d’une journée, Alex Cheema a connecté ces deux machines via Thunderbolt 5 et a réussi à faire tourner l’intégralité du modèle DeepSeek R1 directement en local ! L’IA chinoise n’est certes pas la plus gourmande en ressources, mais la prouesse technologique est réelle.
Running DeepSeek R1 on my desk
Uses @exolabs with Thunderbolt 5 interconnect (80Gbps) to run the full (671B, 8-bit) DeepSeek R1 distributed across 2 M3 Ultra 512GB Mac Studios (1TB total Unified Memory).
Runs at 11 tok/sec. Theoretical max is ~20 tok/sec. pic.twitter.com/ijD7YamHLl
— Alex Cheema – e/acc (@alexocheema) March 12, 2025
On pourrait arguer que l’équipement en Mac nécessaire à ce portage en local coûte environ 20 000 dollars, mais il n’existe à ce jour aucune autre solution permettant d’exécuter DeepSeek R1 pour un tarif aussi bas. Cet avantage exclusif aux Mac est évidemment rendu possible grâce aux performances de la puce Apple Silicon et à l’architecture de mémoire unifiée d’Apple, qui permet aux cœurs GPU et CPU d’accéder à la même RAM. Ces excellents résultats pourraient donner au Mac un atout de poids dans la bataille des IA, et ce malgré le retard assez honteux d’Apple Intelligence.
Donc….la Chine a pas menti une fois de plus….
La désinformation est venue des USA comme toujours en minimisant leurs capacité d’innovation…
Que dire des propos de toujours plus de puissance par Nvidia et les USA ?
Pour ceux qui avaient un doute sur le coup du développement de cette IA. Ça démontre la vaste supercherie des sommes nécessaires et déjà engagées pour le développement des autres IA
Vous avez vraiment rien compris à comment ça fonctionne. Deux Mac mini suffisent pour l’inférence. C’est pas la même chose qu’entraîner un modèle 🤦♂️