Apple Intelligence nécessite désormais presque le double du stockage par rapport au lancement
Pour utiliser Apple Intelligence sur iPhone, iPad ou Mac, il faut désormais avoir au moins 7 Go d’espace de stockage disponible. C’est presque le double par rapport au lancement.
Apple Intelligence a fait ses débuts avec iOS 18.1 sur iPhone et iPad, et macOS 15.1 sur Mac en octobre. À cette période, Apple faisait savoir qu’il fallait avoir au moins 4 Go d’espace de stockage disponible pour profiter de l’intelligence artificielle. Mais le fabricant a fait un changement depuis l’arrivée d’iOS 18.2 et demande maintenant 7 Go.
Avec iOS 18.1, Apple Intelligence a proposé quelques fonctionnalités, essentiellement des outils de rédaction. C’est monté en gamme avec iOS 18.2 et l’arrivée de l’intégration de ChatGPT, Genmoji pour générer des emojis, Image Playground pour générer des images, l’intelligence visuelle pour les iPhone 16 et de nouveaux outils de rédaction. Cela explique le stockage supplémentaire.
On peut maintenant se demander combien l’IA occupera de place au fil des mises à jour. iOS 18.3 est actuellement disponible en bêta et ne propose rien de nouveau en lien avec Apple Intelligence. Il y aura ensuite iOS 18.4 qui proposera le tout nouveau Siri bien plus intelligent. On peut se douter qu’Apple va une nouvelle fois revoir à la hausse ses exigences pour le stockage. Peut-être qu’on atteindra les 10 Go.
Et puis il y aura iOS 19 avec, on peut l’imaginer, plusieurs nouveautés pour Apple Intelligence. Là encore, le stockage nécessaire devrait augmenter. Mais jusqu’où ?
C est ce que je dis depuis le début.Une IA En local demande énormément de stockage et encore sans compter les trucs qui passent par serveurs
Sur Mac, cela ne devrait pas causer de problème. Par contre, sur iOS ! Surtout qu’Apple s’est toujours gavé avec le prix de sa mémoire interne.
C’est un peu normal au lancement. Ensuite une fois la technologie plus maîtrisé, les optimisations pourront avoir lieu et réduire l’espace disque requis avec des algorithmes plus performants et moins gourmand en terme de stockage et mémoire nécessaire.C’est compliqué de faire quelque chose d’efficace, efficient et peu gourmand lors de la 1ere itération.
N importe quel algorithme doit être « nourri » ,il ne peut pas travailler sur du vide donc il doit avoir des bases quand il travaille en local et ces bases sont en perpétuelles évolutions au fil de la vie.Je dis bien en local . Je suis d accord pour du traitement sur des serveurs extérieurs ou un algorithme de 3/4 giga suffit.On se doute bien à ce moment qu il y a des interférences entre ce qui est pensé par certains croyant a du tout local et les questions de prix soit en mémoire physique sur le matériel ou les accès à des serveurs externes .ChatGPT veut devenir une société à but lucratif par exemple , ca sent les abonnements à plein nez et dans le futur généralisé