苹果眼镜(Vision Pro)的开发者指南(1)

一、用到的底层核心框架:

  1. SwiftUI:无论开发者是要创建窗口、体积还是空间体验,SwiftUI 都是构建新的 visionOS 应用程序或将现有 iPadOS 或 iOS 应用程序引入平台的最佳方式。凭借全新的 3D 功能以及对深度、手势、效果和沉浸式场景类型的支持,SwiftUI 可以帮助你为 Vision Pro 构建精美且引人入胜的应用程序。RealityKit 还与 SwiftUI 深度集成,帮助你构建清晰、响应迅速且立体的界面。SwiftUI 还可以与 UIKit 无缝协作,帮助你构建适用于 visionOS 的应用程序。
  2. RealityKit:使用Apple的3D 渲染引擎 RealityKit 在你的应用程序中呈现 3D 内容、动画和视觉效果。RealityKit 可以自动调整物理光照条件和投射阴影,打开通往不同世界的门户,构建令人惊叹的视觉效果等等。为了创作你的材料,RealityKit 采用了 MaterialX,这是一种开放标准,用于指定领先的电影、视觉效果、娱乐和游戏公司使用的表面和几何着色器。
  3. ARKit:在 Vision Pro 上,ARKit 可以完全了解一个人的周围环境,为你的应用提供与周围空间交互的新方式。默认情况下,ARKit 支持核心系统功能,你的应用程序在共享空间中时会自动受益于这些功能,但是当你的应用程序移动到完整空间并请求许可时,你可以利用强大的 ARKit API,例如平面估计、场景重建、图像锚定、世界跟踪和骨骼手部跟踪。

二、用到的开发工具:

  1. Xcode:visionOS 的开发从 Xcode 开始,其中包括 visionOS SDK。将 visionOS 目标添加到你现有的项目或构建一个全新的应用程序。在 Xcode 预览中迭代你的应用程序。在全新的 visionOS Simulator 中与你的应用程序交互,探索各种房间布局和照明条件。创建测试和可视化以探索空间内容的碰撞、遮挡和场景理解。
  2. Reality Composer Pro:探索全新的 Reality Composer Pro,旨在让你轻松预览和准备 visionOS 应用程序的 3D 内容。Xcode 提供的 Reality Composer Pro 可以帮助你导入和组织资产,例如 3D 模型、材料和声音。最重要的是,它与 Xcode 构建过程紧密集成以预览和优化你的 visionOS 资产。

vision官方开发文档:https://developer.apple.com/visionos/learn/

相关推荐
测试人社区-千羽1 天前
AR/VR应用测试核心要点与实施策略
人工智能·安全·职场和发展·自动驾驶·测试用例·ar·vr
平行云1 天前
Enscape × Paraverse | 从设计到一键发布、网页分享、实时交互的全新体验
unity·ue5·xr·3dsmax·webgl·实时云渲染·云桌面
CNRio1 天前
AI眼镜:从“增强现实“到“增强体验“的技术跃迁与产业机遇
人工智能·ar
老朱佩琪!1 天前
Unity迭代器模式
unity·设计模式·迭代器模式
程序猿多布1 天前
Unity 多语言系统实现
unity·多语言
北京阿法龙科技有限公司1 天前
智能赋能高效执法|AR警务智能眼镜核心应用详解|阿法龙XR云平台
ar·xr
不爱学英文的码字机器1 天前
【征文计划】从一个小模板开始,深入Rokid AR生态
后端·ar·restful
不爱学英文的码字机器1 天前
【征文计划】Rokid AR眼镜在工业维修领域的应用实践:智能装配指导系统开发全流程
后端·ar·restful
CreasyChan1 天前
Unity中C#状态模式详解
unity·c#·状态模式
源于花海1 天前
智慧零售新视界:基于Rokid Glasses的AR智能导购系统深度实现
ar·智慧零售·rokid glasses