Apple prend la AR très au sérieux, et l’a prouvé une nouvelle fois lors d’une conférence où ARKit a réellement pris une nouvelle dimension. ARKit 3, c’est d’abord et avant tout l’ajour de deux fonctions majeures : l’occlusion (c’est à dire le fait qu’un élément AR puisse passer « devant » ou « derrière » un élément réel, ou l’inverse), et le motion capture temps réel, (les mouvements d’un individu sont synchronisés avec ceux d’un avatar AR, ce qui s’avèrera sans doute très utile lors du développement des jeux AR).

Ces deux fonctions étaient parfaitement illustrée dans une démo live impressionnante de Minecraft Earth, même si tout n’était pas encore « parfait » au plan technique.

Apple a aussi dévoilé un nouvel outil pour le développement rapide d’expériences AR : RealityKit. Cette fois, même les développeurs qui n’ont aucune compétence particulière dans les outils et apps 3D pourront créer une application AR de bout en bout. RealityKit intègre sont propre moteur physique ou de rendering, des outils pour l’animation ainsi que de nombreux effets graphiques qui permettront de renforcer le « réalisme » des éléments AR : réflexion de l’environnement, ombres au sol ou bien encore flou de mouvement.

Dernière nouveauté, Reality Composer, une bibliothèque de modèles et d’animations 3D dans laquelle les développeurs pourront piocher à loisir (on pourra aussi importer des fichiers 3D au format standard USDZ). Ces modèles 3D pourront bien évidemment intégrer des apps AR développées via Xcode/ARKit 3 et Reality Kit, et seront exportables avec AR QuikLook.

Les gros efforts d’Apple sur la AR lors de cette WWDC 2019 rendent toujours plus probable l’arrivée plus ou moins prochaine de lunettes AR; sinon, pourquoi investir autant de ressources dans un Framework AR et surtout pour des apps AR que très peu de personnes utiliseront au final, principalement parce qu’il n’est guère pratique de brandir son iPhone devant soi ?