我一直在努力训练yolov3对一些非常小的物体进行检测,20x20px . 我有很多标记数据,但我只给了一个中心点(有时有点偏差~10px最大值),没有宽度和高度,这个对象的尺寸最多可以是20px到40px,有很多方向 . 在这个尺寸范围内有几种类型的对象 .

我已经基本上意识到使用yolo进行检测不会像我需要的那样,经过几个月的尝试微调它并对新模型有一些想法 .

第1步: Localize objects 在这一点上,我可以获得相当多的误报 .

步骤2: Zoom 下一步是在该区域上运行SRGAN以增加区域的大小并保持尽可能多的分辨率 . 然后将该缩放图像馈送到分类器中 .

步骤3: Classify 使用一些带有暗网的分类模型来对缩放的图像进行分类 . 将不得不生成缩放图像的数据集来训练这部分 .

我主要关注的是初始步骤,以中心点为中心,取出本地化的点或盒子,不需要进行分类 .

我试图给所有对象一个标准的w / h,它适用于所有的东西,但我认为这会让我错过我训练集的较小或较大端的对象,因为边界框对于那些对象并不好 . 我可以使输出网格密集,这可能会有所帮助,但它不能解决我只有中心点标签的问题 .

关于这个想法作为一个整体或特定本地化的任何想法将非常感激 . 关于暗网的哪些核心部分可能需要改变或添加的想法,对于帮助我在这个框架中加强这样做的好处和问题也是有用的 . 如果你有可能发现有用的论文,请按我的方式发送!

谢谢 :)