-
1 votesanswersviews
Tflite:根据输入张量内容调整输出张量
我正在编写一个自定义op,它输出一个张量,其形状取决于输入张量的值 . 问题是我们无法访问 Prepare 方法中的张量值 . 我们可以得到张量形状,但值不可用 . 我该如何实现? 在相关的说明中,我如何支持输出具有部分指定形状的张量?张量需要在 eval 函数期间分配,但我没有看到在运行时分配张量的API . -
2 votesanswersviews
tensorflow lite:转换量化graphdef的错误
我完成了教程(https://www.tensorflow.org/performance/quantization)来生成量化的graphdef文件: curl -L "https://storage.googleapis.com/download.tensorflow.org/models/inception_v3_2016_08_28_frozen.pb.tar.gz" ... -
1 votesanswersviews
在TensorFlow Lite中运行Keras模型时的不同预测
尝试使用预训练的Keras图像分类器测试TensorFlow Lite,在将H5转换为tflite格式后,我的预测会变得更糟 . 这是预期的行为(例如权重量化),错误还是我在使用解释器时忘记了什么? 示例 from imagesoup import ImageSoup from tensorflow.keras.applications.resnet50 import ResNet50, prep... -
0 votesanswersviews
找不到com.android.tools.build:gradle:3.0.1 . 在尝试构建tensorflow lite演示应用程序时
我收到了这个错误 . 我正在尝试构建Tensorflow lite演示应用程序,但它无法正常工作 . Could not find com.android.tools.build:gradle:3.0.1. Searched in the following locations: https://jcenter.bintray.com/com/android/tools/build/gradle/... -
0 votesanswersviews
TensorFlow - 使用toco将* .pb文件转换为* .tflite时出错
我使用以下示例创建tensorflow模型:http://cv-tricks.com/tensorflow-tutorial/training-convolutional-neural-network-for-image-classification/您可以从此处下载代码:https://github.com/sankit1/cv-tricks.com/tree/master/Tensorflow... -
0 votesanswersviews
更改提供的模型的输入批量大小
对不起新手问题 . 我试过寻找例子,但大多数时候它是伪代码/片段我无法运行,很难说是什么,特别是对于所有不同的TF工作流程 . 我试图将预先训练的TensorFlow保存模型ResNet-50 v2(fp32)转换为量化的TensorFlow Lite文件,并有两个问题: 批量大小似乎固定为64.即输入张量为64x224x224x3 . 我希望它是1x224x224x3 加载/转换保存模型... -
2 votesanswersviews
无法测试和部署用于推理的deeplabv3-mobilenetv2 tensorflow-lite分段模型
我们尝试使用deeplabv3和mobilenetv2在android上运行语义分割模型 . 我们在bazel的帮助下使用TOCO和tflite_convert遵循官方tensorflow lite转换过程 . 源冻结图是从官方TensorFlow DeepLab模型动物园获得的 . 我们能够使用以下命令成功转换模型: - CUDA_VISIBLE_DEVICES =“0”toco --outp... -
6 votesanswersviews
ValueError:节点的输入0与预期的float_ref不兼容 . **
我在尝试导入优化的冻结图时遇到异常 . # read pb into graph_def with tf.gfile.GFile(pb_file, "rb") as f: graph_def = tf.GraphDef() graph_def.ParseFromString(f.read()) # import graph_def with tf.Graph(... -
1 votesanswersviews
如何知道在Graph中的张量名称列表中选择哪个张量?
我正在尝试将线性分类器导出为tflite格式 . 这就是我需要从Graph中的张量列表名称中选择张量的原因 . 例如,为了导出DNN分类器模型,选择了以下输入和输出张量: input_tensor = sess.graph.get_tensor_by_name("dnn/input_from_feature_columns/input_layer/concat:0") ... -
3 votesanswersviews
tensorflow lite推理给出了不同的结果然后定期推理
我有一个模型从图像中提取512个特征(数字在-1,1之间) . 我使用这里的指令将此模型转换为tflite float格式https://github.com/tensorflow/tensorflow/tree/master/tensorflow/contrib/lite 我使用原始模型和tflite模型对同一图像进行推理 . 我得到了不同的矢量结果,我期望得到非常相似的结果,因为我没有使用量化... -
0 votesanswersviews
如何将tensorflow模型文件转换为tensorflow lite? graph.pb到graph.lite
(基础)C:\ tensorflow-master> bazel run --config = opt \ // tensorflow / contrib / lite / toco:toco - \ --input_file = optimized_graph.pb \ --output_file = abc.tflite \ - input_format = TENSORFLOW_... -
0 votesanswersviews
将(融合)BatchNorm转换为卷积/添加,以便在TensorflowLite上运行MobileNet
我刚刚完成了TensorFlow for Poets 2:TFLite教程(https://codelabs.developers.google.com/codelabs/tensorflow-for-poets-2-tflite/#0) . 在本教程结束时,我能够在手机上运行教程中提供的MobileNet . 现在,我正在尝试使用MobileNet从教程中替换MobileNet,我使用Tenso... -
1 votesanswersviews
使用bazel时未发现Tensorflow toco pacakage
我试图使用以下命令将pb文件转换为tlite文件: bazel run // tensorflow / contrib / lite / toco:toco --input_file = sample.pb --output_file = sample.tlite 我收到以下错误:错误:正在跳过// tensorflow / contrib / lite / toco:toco:在程序包路径上找不... -
8 votesanswersviews
Tensorflow-Lite预训练模型在Android演示中不起作用
Tensorflow-Lite Android演示版可与其提供的原始模型配合使用:mobilenet_quant_v1_224.tflite . 见:https://github.com/tensorflow/tensorflow/tree/master/tensorflow/contrib/lite 他们还在这里提供其他预训练的精简模型:https://github.com/tensorflow... -
3 votesanswersviews
我正在尝试将量化的mobilenet模型用于tensorflow lite模型,但遇到错误
首先,我从Mobilenet下载量化模型 . 它包含在Mobilenet_v1_1.0_224中 . 然后我做了以下 bazel-bin/tensorflow/contrib/lite/toco/toco \ > --input_files=Sample/mobilenet_v1_1.0_224/quantized_graph.pb \ > --input_format=TENSORF... -
0 votesanswersviews
TFLite:无法在自定义数据集上使用MobilenetV2获取推理
我已经关注了this链接,并通过对我的自定义数据集进行微调,成功为MoiblenetV2_1.4_224创建了冻结图 . 然后,我按照tensorflow-for-poets:tflite使用toco使用以下命令创建tflite图 . IMAGE_SIZE=224 toco \ --input_file=frozen_mobilenet_v2.pb \ --output_file=optimize... -
4 votesanswersviews
错误MappedByteBuffer在将模型转换为tf-lite时不是有效的flatbuffer模型
我正在尝试将deeplab-v3模型转换为TF-Lite,我从mobilenetv2_coco_voc_trainaug下载MobileNet-v2的预训练模态 . 使用以下命令覆盖模型: bazel run --config=opt \ //tensorflow/contrib/lite/toco:toco -- \ --input_file=/tmp/frozen_inference_... -
0 votesanswersviews
错误运行tensorflow lite示例
我尝试构建并运行tensorflow lite示例(最小) . 构建正常,但运行此程序时出错 . 为什么会出现此错误? 使用的模型是对tensorflow的自定义模型训练和使用toco转换tensorflow lite . root@90f212114f89:/tensorflow# bazel-bin/tensorflow/contrib/lite/examples/minimal/minima... -
1 votesanswersviews
LSTM模型的tensorflow lite转换
我试图使用tensorflow TOCO和 tf_convert 工具将基于张量流(LSTM)的模型转换为tensorflow lite,但转换后的tensorflow lite模型大约为245MB,其中原始tensorflow移动大约为1MB . 以下是我使用的命令 bazel run --config=opt //tensorflow/contrib/lite/toco:toco -- \ ...