首页 文章

增强现实的SURF和SIFT替代目标跟踪算法

提问于
浏览
19

在询问here并尝试SURF和SIFT之后,它们都没有足够高效地生成足够快的兴趣点来跟踪来自摄像机的流 .

例如,SURF需要大约3秒的时间来生成图像的兴趣点,这对于跟踪来自网络摄像头的视频来说太慢了,而且在手机上使用它时情况会更糟 .

我只需要一个跟踪某个区域,它的比例,倾斜等的算法 . 我可以在此基础上构建 .

谢谢

7 回答

  • 14

    我怀疑你的SURF使用可能需要一些改动吗?

    关于在移动设备上使用SURF进行增强现实应用的麻省理工学院论文Here is a link .

    摘抄:

    在本节中,我们将介绍SURF算法的实现及其对移动电话的适应性 . 接下来,我们将讨论精度对最近邻搜索速度的影响,并表明我们可以实现一个数量级的加速,同时对匹配精度的影响最小 . 最后,我们讨论图像匹配管道的电话实现细节 . 我们研究手机的性能,内存使用和带宽消耗 .

    您可能还想查看OpenCV的算法,因为它们经过了尝试和测试 .

    根据应用程序的限制,您可以降低这些算法的通用性,以查找图像中的已知POI和标记 .

    POI的一部分是从2D图像中的一个点到另一个点估计其矢量,然后可选地确认它仍然存在于那里(通过像素特征) . 可以使用相同的方法来跟踪(不重新扫描整个图像)POI和POI组/对象透视和旋转变化 .

    在线有大量论文用于跟踪2D投影上的物体(在许多情况下达到严重偏斜) .

    祝好运!

  • 2
  • 5

    我们正在将SURF用于一个项目,我们发现OpenSURF在原始速度和性能方面超越了OpenCV的SURF实现 . 我们还没有测试过重复性和准确性,但速度更快 .


    更新:我只是想指出你不需要在每一帧中执行一个SURF匹配步骤,你可以简单地每隔一帧执行一次,并在你不执行SURF的帧中插入对象的位置 .

  • 2

    如果要对要跟踪的区域进行更严格的限制,可以使用更简单的算法 . 你肯定知道,ARToolKit非常快,但只跟踪具有非常独特框架的黑白标记 .

    如果您想要(某种程度上)通用跟踪器,您可能需要检查PTAM . 该网站(http://www.robots.ox.ac.uk/~gk/PTAM/)目前正在关闭,但这是一个在iPhone上工作的时髦视频(http://www.youtube.com/watch?v=pBI5HwitBX4

  • 7

    正如其他人所提到的,三秒似乎异常漫长 . 在Mahotas库中测试SURF实现时,我发现它平均需要0.36秒,即使有一些相当大的图像(例如1024x768) . 并且's with a mix of Python and C, so I'd想象其他一些纯C实现会更快 .

  • 2

    http://computer-vision-talks.com/2011/01/comparison-of-the-opencvs-feature-detection-algorithms-2/我发现每个特征检测算法的这个很好的比较

    看一看 . 它可能有用!

    根据这种比较,并且正如mirror2image所暗示的那样,FAST是最佳选择 . 但这取决于你真正想要实现的目标 .

  • 3

    我在约束嵌入式系统中使用的一个选项是使用更简单的兴趣点检测器:例如FAST或Shi-Tomasi . 我使用Shi-Tomasi,因为我的目标是FPGA,并且可以很容易地以像素速率运行它而不需要显着的缓冲 .

    然后使用SURF为所识别的特征周围的图像块生成描述符,并将其用于匹配和跟踪目的 .

相关问题