我试图在C中运行模型推理 .
我用 torch.jit.trace
成功地用Python跟踪了模型 .
我可以使用 torch::jit::load()
在C中加载模型 .
我能够在cpu和gpu上进行推理,但是起点始终是 torch::from_blob
方法,这似乎是在创建cpu-side tensor .
为了提高效率,我想将 cv::cuda::GpuMat
直接投射/复制到CUDA Tensor . 我一直在挖掘pytorch tests和docs以寻找方便的例子,但却无法找到一个 .
问题:如何从cv :: cuda :: GpuMat创建CUDA Tensor?
1 回答
这是一个例子: