首页 文章
  • 2 votes
     answers
     views

    使用CoreML推断Metal Texture子区域

    我正在构建一个iOS应用程序,可以实时渲染从相机到Metal Textures的帧 . 我想使用CoreML在金属纹理的子区域上执行样式传输(将相机输出想象为2x2网格,其中4个方块中的每一个都用作样式传输网络的输入,并且输出粘贴回显示的纹理) . 我试图找出如何最好地使用MetalML内部的CoreML来填充纹理的非重叠子区域与mlmodel的输出(希望不将ml模型分解为MPSNNGraph) ...
  • 1 votes
     answers
     views

    在CoreML中为循环网络定义可选输入

    我最近偶然发现了一篇关于CoreML docs网站的文章,该文章讨论了用于预测文本的循环模型的实现 . 我试图复制这个,或者至少是类似的东西,并且已经碰到了作者如何能够将模型中的“stateIn”输入定义为可选的 . 有没有人有任何可能指向我正确方向的信息?我正在使用keras构建网络,并计划在培训后转换为CoreML . 本文中使用的过程将完全适用于我的模型 . 输出最后一层的状态并将其传递回模...
  • 1 votes
     answers
     views

    使用Keras 2保存CoreML负载模型

    Apple的新CoreML可以与受欢迎框架培训的模型配合使用 . 至少他们在WWDC video的18英寸处这么说 . 但是在docs似乎关于神经网络它们只支持Caffe和Keras 1.2.2(see code),而Keras它支持2.0版本和Tensorflow和Theano非常受欢迎他们自己的权利 . 要使用Keras 2运行转换,有没有比自己实现转换更好的方法? coremltools包中...
  • 0 votes
     answers
     views

    如何在Objective-C中使用CoreML的机器学习模型

    我有一个以Objective-C(几千行)制作的Machine Vision项目 . 要完成它,我需要使用最新的coreML库导入我的机器My_model.mlmodel . (因为离题My_model.mlmodel是用Python在coremltools中创建的)我试图实例化它,但没有任何作用我找不到任何教程或帮助这个主题 . 当然,我将我的模型导入纯Swift项目,它的工作原理 . 所以我...
  • 0 votes
     answers
     views

    CoreML转换的keras模型在Xcode中请求多数组输入而不是图像

    这实际上是我在Stackoverflow上的第一篇文章,我对机器学习很新 . 我目前正在尝试使用VGG16训练卷积神经网络以进行简单的图像分类任务 . 它基于本教程:http://www.codesofinterest.com/2017/08/bottleneck-features-multi-class-classification-keras.html . 我的目标是将此模型转换为CoreML...
  • 2 votes
     answers
     views

    图像中的文本检测

    我正在使用下面的示例代码,使用coreml和vision在图像(非手写)中进行文本检测 . https://github.com/DrNeuroSurg/OCRwithVisionAndCoreML-Part2 在这里他们使用机器学习模型,它只支持大写和数字 . 在我的项目中,我想要大写,小写,数字和少数特殊字符(如:, - ) . 我没有任何python经验来进行必要的更改并使用列车数据生成所需...
  • -1 votes
     answers
     views

    iOS动态机器学习模型

    我有一个用SWIFT编写的iOS应用程序 . 它获取用户信息并将其保存在数据库中(Firebase) . 我想使用这些数据然后动态更新作为数据更新创建的机器学习模型,以便每次都提供改进的预测 . 有办法做到这一点吗? 我知道我可以单独创建我训练过的模型(例如使用TensorFlow),然后使用Core ML将其导入我的应用程序但是我该怎么做才能让模型在新数据进入时不断更新? 谢谢您的帮助!!
  • 1 votes
     answers
     views

    CoreML框架从coremltools生成了不同的结果

    我一直在使用CoreML示例开发ios 11中的图像识别应用程序 . 但是我注意到在ios中调用模型时的结果和使用mac / python中的coremltools的结果有所不同 . 我认为差异可能在于图像加载部分 . Python代码使用Pillow加载图像,但xcode使用CoreImage . 我粘贴了如下密码 . 希望有人可以帮助指出这个问题 . 输入图像也是299 * 299 jpg ...
  • 2 votes
     answers
     views

    CoreMLTools转换的Keras模型在VNCoreMLTransform失败

    就像我的视觉和CoreML框架一样,却陷入了如何使用我自己的重新训练模型的困境 . 我尝试用基于this tutorial的Keras训练VG16模型 . 除了一些Keras版本警告外,一切看起来都不错 . 然后我尝试使用以下代码使用CoreMLTools转换结果模型 coremlModel = coremltools.converters.keras.convert( kmodel, ...
  • 0 votes
     answers
     views

    在ios上的Squeezenet

    我试图在iOS应用程序中使用Apple提供的Squeezenet ML模型 . 当我传递图像进行分类时,预测就会消失 . 我怀疑问题是由于提供给Squeezenet进行分类的图像的典型预处理尚未在iOS应用程序中实现 . 特别是,在Python中实现时,图像需要以下预处理步骤: model = SqueezeNet() img = image.load_img('cat.jpeg', targe...
  • 0 votes
     answers
     views

    iOS:使用从Keras转换的模型,没有CoreML预测的结果

    我面临的问题是在Xcode 9(Beta 5)我的模型's prediction call doesn' t给出任何结果,只是挂在那里,没有错误 . 要求是识别用户电话的一个特定移动,并排除其他类似移动 . 所以我的输入是来自加速度计的x,y,z方向的数据,输出是[positiveProbability,negativeProbability] . 最初我的模型是用TensorFlow后端编写的,...
  • 0 votes
     answers
     views

    创建CoreML LRCN模型

    您好,并提前感谢您提供的任何帮助或指导! 我的问题源于Apple的CoreML文档站点上发布的一篇文章 . 在WWDC 2017讲座中也介绍了本文的主题,我发现它非常有趣 . 我最近发布了一个问题,该问题与我正在进行的同一个项目的一部分有关,并且很容易解决;然而,当我进一步深入研究这项工作时,我发现自己并不了解该模型的一部分是如何实施的 . 首先,我有一个我在Keras Build 的模型,它有一...
  • 1 votes
     answers
     views

    Coreml,验证输入失败 . 图片无效

    试图按照https://www.appcoda.com/core-ml-model-with-python/ Build 图片识别我使用Core ML(Turi Create)Python Swift(iOS) . 试图上传我用于训练“.mlmodel”文件的相同图像 . 没有帮助 . 试图加载图片100x100大小 . 同样的错误 . 我还能尝试什么? 输出: 2018-04-17 20:54...
  • 1 votes
     answers
     views

    如何在Swift中删除multiArrayValue的“Double 512 vector”?

    我在swift中使用CoreML,我使用此函数来获取第一个向量 . let request = VNCoreMLRequest(model:visionModel){request,error in if let observation = request.results as? [VNCoreMLFeatureValueObservation],让output = observation.fi...
  • 3 votes
     answers
     views

    ios / CoreML - 当keras模型转换为CoreML时,输入类型为MultiArray

    我正在尝试训练 keras 模型并使用 keras 1.2.2 和 TensorFlow 后端将其转换为 coreML 模型 . 这是一个分类任务 . CoreML的输入显示为 MultiArray . 我需要这个 Image <BGR, 32, 32> 或像 CVPixelBuffer 这样的东西 . 我尝试添加 image_input_names='data' ,如here所述...
  • 0 votes
     answers
     views

    附加多个VNCoreMLModel ARKit和CoreML

    我是菜鸟,我真的不知道怎样才能在VNCoreMLRequest中发生多个CoreML模型 . 下面的代码只是使用一个模型,但我想附加另一个模型(下面的例子中的visionModel2) . 谁能帮我?谢谢! private func performVisionRequest(pixelBuffer: CVPixelBuffer){ let visionModel = try! VNCore...
  • 0 votes
     answers
     views

    Keras模型到Coreml并使用OpenCV

    我有一个Keras模型,并已成功将其转换为Coreml . 我将一个RGB格式的彩色50x50图像传递给模型,一切都在我的Keras模型中用Python编写 . 但是我真的很难从Coreml模型中获得相同的结果 . 我在我的iOS应用程序中使用OpenCV,需要将cv :: Mat转换为CVPixelBufferRef . 我很肯定我的意见不对,但我无法弄清楚它是什么 . 我发送到Python模型...
  • 0 votes
     answers
     views

    coreML scikit学习模型返回整数概率

    我训练了一个scikit学习 RandomForestClassifier 模型并使用 coremltools.converters.sklearn 将其转换为iOS coreML格式 . 该模型在目标变量中有4个类 . 训练后,目标变量是 string 而不是 int . 当我在iOS上执行模型时,类概率输出是4个整数值 . 我该如何解读这些?他们有可能吗?我本来预期总和为1的概率 . 注意:...
  • 1 votes
     answers
     views

    将keras模型转换为coreml格式时出错

    转换h5文件: coreml_model = coremltools.converters.keras.convert('model.h5') 产生以下错误: File ".../venv/lib/python2.7/site- packages/coremltools/converters/keras/_keras_converter.py", line 722, in ...
  • 0 votes
     answers
     views

    将Keras模型转换为Ubuntu上的CoreML

    是否可以在Ubuntu上将Keras模型转换为Apple的CoreML? OSX是否需要在页面中运行脚本Converting Trained Models to Core ML
  • 4 votes
     answers
     views

    CoreML模型编译错误编译在keras中训练的模型,嵌入层为第一层

    我在keras中训练了一个简单的模型,它的第一层是嵌入层,如下所示: 我将模型转换为.mlmodel但是当我尝试在Xcode中编译代码时出现此错误: /mlkitc: compiler error: Inner product layer: dense_1: Product of input's C,H,W (32,1,1) must be equal to the input channels...
  • 2 votes
     answers
     views

    将Tensorflow支持的Keras模型转换为CoreML

    我有一个简单的Tensorflow支持的Keras模型,如下所示: x_test = np.zeros((len(data) - max_samples, max_len, max_features), dtype=np.bool) y_test = np.zeros((len(data) - max_samples, max_len, max_features), dtype=np.bool) ...
  • 9 votes
     answers
     views

    初始化CoreML模型时崩溃:Error Domain = com.apple.CoreML Code = 0“声明网络时出错 . ”

    我在App Store上有一个应用程序,我从Crashlytics获取错误日志 . 在我的项目中初始化CoreML模型时,会出现用户获得的最常见错误之一(以及难以重现的错误) . 以下是我初始化模型的方法: class VisionManager: NSObject { /// Prediction model private static let model = MobileNet() ...
  • 12 votes
     answers
     views

    如何将视觉框架坐标系转换为ARKit?

    我正在使用ARKit(使用SceneKit)添加虚拟对象(例如球) . 我通过使用Vision框架并在视觉请求完成处理程序方法中接收其更新位置来跟踪真实世界对象(例如,脚) . let request = VNTrackObjectRequest(detectedObjectObservation: lastObservation, completionHandler: self.handleVi...
  • 2 votes
     answers
     views

    根据CoreML预测定位SKNode

    我正在看这个CoreML and ARKit example,但是当我运行它时,源项目没有显示 SKLabelNode . 我的猜测是它们缺少一个值 position ,我想将标签放在预测对象位于屏幕的位置 . 此示例使用 Inceptionv3 ML模型 . 标签将添加到视图控制器的 view(_ view: ARSKView, nodeFor anchor: ARAnchor) ->...
  • 1 votes
     answers
     views

    错误! coreML模型预测图像是错误的,视频是正确的

    我在一个示例iOS应用程序中使用CoreML和我的自定义训练对象检测模型 . 在视频帧上使用时,该模型能够很好地执行并显示正确的类检测和边界框 . 在图像上使用时, bounding box detections are all wrong and all predictions are classified to 1 class. 两种情况下的模型设置是相同的 . the model predi...
  • 0 votes
     answers
     views

    Keras和CoreML预测conv1d层的结果是不同的

    这是python中的代码 . model1 = Sequential() model1.add(Conv1D(filters=5, kernel_size=12, padding="same", name="conv1", input_shape=(lenmax,12))) model1.add(Activation('relu')) sgd = k...
  • 0 votes
     answers
     views

    swift coreML:没有“options”参数的预测函数

    在swift documentation中,MLModel有两个预测函数 func prediction(来自:MLFeatureProvider) - > MLFeatureProvider . 根据给定的输入要素值预测输出要素值 . func prediction(来自:MLFeatureProvider,options:MLPredictionOptions) - > M...
  • 0 votes
     answers
     views

    是否可以使用CoreML和ARKit获取World对象的“SCNVector3”位置?

    我正在研究基于AR的解决方案,其中我使用SceneKit和ARKit渲染一些3D模型 . 我还集成了CoreML来识别对象并在场景中渲染相应的3D对象 . 但是现在我只是在检测到对象时将其呈现在屏幕的中心(仅用于我拥有的对象列表) . 是否有可能获得现实世界对象的位置,以便我可以在对象上方显示一些叠加? 那就是如果我有一个水瓶装扫描,我应该能够得到水瓶的位置 . 它可能在水瓶中的任何地方,但不应该...
  • 0 votes
     answers
     views

    如何在iOS(或Android)应用程序中使用keras h5模型

    我用keras retinanet 50训练了一个模型,现在我有一个h5文件,当用静态图像测试它时效果很好 . 我很想在iOS(和/或Android)应用程序中使用它,但我无法将其转换为例如coreml: import coremltools coreml_model = coremltools.converters.keras.convert(model) # => error occur...

热门问题