我已经训练IBM Watson识别感兴趣的对象 . 由于远程执行不是必需的,我想使用提供的工具导出到.mlmodel并在macOS中运行 .
不幸的是,学习Swift和macOS开发也不是必需的 . 可以直接从命令行或脚本语言调用Vision吗?作为替代方案,任何人都知道macOS app的骨架在文件列表上运行Vision并以表格形式获得分类分数?谢谢 .
您还可以将mlmodel加载到Python中并使用coremltools包进行预测 . 我不会在 生产环境 环境中使用它,但是可以基本启动并运行 .
此article中提到的代码通过Watson SDK在iOS应用程序中使用下载的Core ML模型 .
此外,这是一个使用Watson Visual Recognition和Core ML对图像进行分类的代码示例 . 工作区有两个项目
Core ML Vision简单:使用视觉识别在本地对图像进行分类 .
Core ML Vision自定义:训练自定义视觉识别模型以进行更专业的分类 .
请参阅代码和说明here
此外,还有一个入门套件,配备了预先配置Core ML的Watson Visual Recognition - https://console.bluemix.net/developer/appledevelopment/starter-kits/custom-vision-model-for-core-ml-with-watson
2 回答
您还可以将mlmodel加载到Python中并使用coremltools包进行预测 . 我不会在 生产环境 环境中使用它,但是可以基本启动并运行 .
此article中提到的代码通过Watson SDK在iOS应用程序中使用下载的Core ML模型 .
此外,这是一个使用Watson Visual Recognition和Core ML对图像进行分类的代码示例 . 工作区有两个项目
Core ML Vision简单:使用视觉识别在本地对图像进行分类 .
Core ML Vision自定义:训练自定义视觉识别模型以进行更专业的分类 .
请参阅代码和说明here
此外,还有一个入门套件,配备了预先配置Core ML的Watson Visual Recognition - https://console.bluemix.net/developer/appledevelopment/starter-kits/custom-vision-model-for-core-ml-with-watson