Dans un tournant révolutionnaire, les applications macOS vont désormais rendre des scènes 3D directement sur Apple Vision Pro, améliorant ainsi l’expérience immersive. Cette innovation promet une accessibilité accrue grâce à une optimisation de la lisibilité, transformant la manière dont les utilisateurs interagissent avec la technologie et le contenu visuel.
Des applications macOS rendant des scènes 3D directement sur Apple Vision Pro
Lors de la WWDC25, de nombreuses sessions de développeurs ont mis en lumière des innovations intéressantes qui n’ont pas été présentées durant le discours d’ouverture. Parmi ces annonces, une en particulier a retenu l’attention : la possibilité pour les applications macOS Tahoe 26 de rendre du contenu 3D immersif directement sur l’Apple Vision Pro, grâce à un tout nouveau type d’espace appelé RemoteImmersiveSpace.
L’évolution de SwiftUI pour le spatial computing
Cette nouvelle fonctionnalité a été mentionnée dans le cadre de l’évolution du support de SwiftUI pour le spatial computing. Apple a introduit le framework CompositorService dans macOS Tahoe 26, permettant ainsi aux applications Mac de projeter du contenu stéréo 3D directement dans des environnements Vision Pro, sans nécessiter de version distincte pour visionOS.
Avec RemoteImmersiveSpace, les développeurs peuvent désormais créer des visuels immersifs qui prennent en charge des événements d’entrée tels que des taps et des gestes, ainsi que des effets de survol pour une interaction spatiale. Cela permet aux applications de bureau de s’étendre dans un environnement totalement immersif. Tout cela peut être réalisé à l’aide de SwiftUI, et une intégration plus profonde avec Metal est également proposée pour ceux qui souhaitent avoir un contrôle total sur le rendu.

Création d’interfaces volumétriques
L’équipe de SwiftUI a également introduit des API puissantes pour la disposition spatiale et l’interaction, permettant aux développeurs de composer des interfaces volumétriques. Par exemple, ils peuvent activer la manipulation d’objets, comme prendre une bouteille d’eau virtuelle, et utiliser un comportement de "snap" dans la scène pour des interfaces plus dynamiques.
Cela signifie qu’une application macOS pourrait simuler des expériences 3D complètes, allant des visites architecturales aux visualisations scientifiques, et les exécuter en temps réel sur le Vision Pro, propulsée par un Mac. Ce développement abaisse considérablement la barrière d’entrée pour les développeurs macOS souhaitant expérimenter avec le Vision Pro ou commencer à construire pour un avenir où le spatial computing pourrait devenir courant.
Perspectives d’avenir
En parallèle, des rumeurs circulent sur de nouveaux casques Vision Pro en préparation par Apple. Selon un rapport de Bloomberg, l’entreprise envisagerait de lancer un modèle plus léger et abordable que la version actuelle. De plus, un casque pourrait être conçu pour se connecter à un Mac, utilisant une approche d’immersion similaire à celle du Vision Pro. Bien qu’il n’y ait pas encore d’informations officielles concernant la date de lancement de ces nouveaux produits, Apple semble déjà prendre des mesures pour préparer ces versions.
Pour approfondir les détails techniques, consultez la session "Ce qui est nouveau dans SwiftUI" et la documentation sur le site des développeurs d’Apple.
Découvrez plus sur le site d’Apple Developer
Quels sont les nouveaux casques Vision Pro en développement par Apple ?
Apple travaille sur deux nouveaux casques Vision Pro. L’un d’eux vise à être plus léger et plus abordable que la version actuelle, tandis que l’autre serait un appareil connecté à un Mac.
Comment les applications macOS peuvent-elles interagir avec visionOS ?
Les applications macOS Tahoe 26 pourront directement rendre du contenu 3D immersif sur Apple Vision Pro, grâce à un nouveau type de scène appelé RemoteImmersiveSpace.
Quelles sont les nouvelles fonctionnalités disponibles pour les développeurs avec SwiftUI ?
SwiftUI a introduit des API puissantes pour la disposition spatiale et l’interaction, permettant aux développeurs de composer des interfaces volumétriques et d’activer la manipulation d’objets, comme soulever une bouteille d’eau virtuelle.
Quel est l’impact de ces développements sur les développeurs macOS ?
Cela réduit considérablement la barrière à l’entrée pour les développeurs macOS souhaitant expérimenter avec Vision Pro ou construire pour un avenir où l’informatique spatiale pourrait devenir courante.






Discussion about this post