我想找到检测到的模型的二维坐标系,以便我可以进行光线投影并获得三维坐标系 .
我正在做以下步骤
-
Microsoft customvision.ai用于训练模型,以便可以使用iOS CoreML进行检测
-
从自定义视觉下载我的.mlmodel文件并将其加载到Xcode项目中
-
将Xcode中的视觉框架用于模型 .
在此之前,我能够识别模型并获得概率 . 但是,我面临的挑战是确定检测到的模型的中心点,我希望在其上叠加信息 .
请建议是否有任何支持的框架可用于识别与屏幕坐标相关的模型坐标 .
通常,当检测到跟随图像时,它应该识别检测到的目标的中心 . 我画了红色边框供参考 .