我想实现这样的场景:使用Vision
的摄像机实时流来检测一些矩形,然后根据某些逻辑处理此输出,然后根据逻辑输出ARKit
显示 AR 元素。
我发现的示例并未涵盖从Vision
实时流检测到ARKit
与SpriteKit
的整个过程,而是分开的那些“步骤”。我发现用Vision
直播的那个是使用UIImageView
。我为ARKit
找到的其他SpriteKit
正在使用ARSKView
。
哪个最好的方法将所有这些集成在一个步进过程中Vision
- >逻辑 - > ARKit
会是什么?