首页 文章
  • 0 votes
     answers
     views

    增强现实3D重建

    我想开发一个Android增强现实应用程序,其中应用程序应具有重建被破坏对象的功能(例如:建筑物/雕像),如下面的视频链接所示https://www.youtube.com/watch?v=WOVjISxlhpU 我经历过metaio,wikitude和vuforia网站,每个网站都有一些困难 . 在最后我发现vuforia有一个功能调用智能地形,它用于3D动画和游戏开发,问题是只有有限的教程可用...
  • -1 votes
     answers
     views

    是否有针对Unity的SLAM SDK或工具,可以在扫描环境时生成带有纹理的3d网格?

    我正在为Unity寻找一些SLAM工具 . 我想用智能手机扫描室内或室外环境然后获得3D模型 . 我找到了一些AR SDK:Vuforia,Wikitude和Katana,但我不确定哪个符合我的需要 . 有人能给我建议吗?谢谢 .
  • 32 votes
     answers
     views

    从2个图像的3d重建没有关于相机的信息

    我试图在2d图像中用3d模拟一个简单的场景,我没有关于相机的任何信息 . 我知道有3 options: 我有两个图像,我知道我从XML加载的相机模型(内在因素) loadXMLFromFile() => stereoRectify() => reprojectImageTo3D() 我没有它们但是我可以校准我的相机=> stereoCalibrate() =&...
  • 10 votes
     answers
     views

    关于运动管道结构的问题

    我有点麻烦了 . 它有一个相机矩阵(是的,我知道它会让事情变得更加复杂和含糊不清) .我知道在尝试这样的事情之前我应该阅读更多内容,但是当我遇到它们时,我试图阅读有关事物的内容 . 这里收集了许多文章,代码样本和书籍 . 我错过了这个或者我做错了什么? 这是我目前的管道 . 从图像中提取SIFT / SURF关键点 . 成对匹配图像 . _GF9_在成对匹配期间我运行"Rat...
  • 0 votes
     answers
     views

    利用2个图像进行三维重建的基本矩阵SVD的不正确平移矩阵

    我试图从使用OpenCV with C的相同相机拍摄的2张图像中找到3D模型 . 我按照this方法 . 我仍然无法纠正R和T计算中的错误 . 图1:删除背景以消除不匹配 图2:仅在X方向上转换图像1背景已移除以消除不匹配 我使用MATLAB Toolbox找到了内在相机矩阵(K) . 我发现它是: K= [3058.8 0 -500 0 3057.3 488 0 0 1] 所有图像匹配关...
  • 5 votes
     answers
     views

    从校准的相机图像的3d重建

    我正在进行三维重建 . 而现在我考虑一对图像 . 我有一套相应的要点 . 我有我的相机细节 . 例如,我有焦点细节,旋转和平移矩阵(4 * 4) . 我想在3D(三角测量)中投射我的观点 . 因此,据我所知,它通过因子代数非常简单 . 但我仍然需要清楚地理解它 . 有没有人知道如何遵循这个?我正在使用matlab,所以我需要实现它!我可能再次过于宽泛或其他什么 . 但请指导我!
  • 4 votes
     answers
     views

    点 Cloud 使用iPhone相机

    我对计算机视觉领域很陌生,对此很着迷 . 我还在学习这些概念,有一件真正吸引我兴趣的是Point Clouds和使用图像的3D重建 . 我想知道从iPhone 6相机拍摄的图像是否能够产生点 Cloud . 我知道PCL(Point Cloud Library)并且正在考虑开发一个可以使用它的iOS应用程序 . 我运行了这个示例PCL应用程序:https://github.com/9gel/he...
  • 4 votes
     answers
     views

    Matlab立体摄像机校准场景重建误差

    我正在尝试使用计算机视觉系统工具箱来校准下面的一对相机,以便能够在1到5米的范围内生成车辆的三维点 Cloud . 对于棋盘校准图像,输出图像尺寸大约为每个图像1MB,棋盘方形尺寸为25mm . 使用的相机是一对SJ4000 HD1080P相机 . 相机尽可能彼此平行放置,垂直轴没有角度 . 借助于强光和白板完成检查板校准 . 使用立体相机校准器代码的每像素平均误差为3.31,成功配对31/32...
  • 0 votes
     answers
     views

    通过python上的opencv校准非并行立体摄像机会导致很大的失真

    opencv = 3.4 python = 3.5 ubuntu 16.04 我尝试在opencv 3.4中使用以下功能来校准我的立体相机,然后在我的棋盘上重建点: cv2.calibrateCamera cv2.stereoCalibrate cv2.stereoRectify cv2.triangulatePoints 结果应该是一组大致在同一平面上的矩形,每个点之间的距离...
  • 5 votes
     answers
     views

    计算没有点对应的基本矩阵?

    我想验证我对基本矩阵的理解是否正确,以及是否可以在不使用任何相应的点对的情况下计算F. 基本矩阵计算为 F = inv(transpose(Mr))*R*S*inv(Ml) ,其中Mr和M1是右和左内在相机矩阵,R是将右坐标系带到左边的旋转矩阵,S是偏斜对称矩阵 S = 0 -T[3] T[2] where T is the translation vector of the righ...
  • 2 votes
     answers
     views

    如果已知初始比例,是否可以计算后续立体声重建的比例因子?

    我正在尝试使用openCV在立体设置中进行相对姿势估计,其中我使用基本矩阵计算姿势,然后尝试使用cv :: triangulatePoints重建场景 . 由于这使我可以重建到任意比例,我认为如果初始基线(〜比例)已知(并且相机在X中纯粹翻译),我可以计算后续比例因子 . 但是即使相机没有移动,并且场景没有改变,如果我拍摄多对图像,每个重建都会产生不同的比例:我知道通过取两个点并比较它们之间的距离...
  • 1 votes
     answers
     views

    如何测试基本矩阵?

    在我的应用程序中,我使用2个摄像头进行3D对象重建 . 为了校准相机,我使用2组图像计算基本矩阵,以便找到相机姿势(旋转和平移) . 我使用SVD找到R和T.但是当我试图检查矩阵的准确性时,它根本不起作用:重建点的位置与实际位置不同 . 如何检查我是否以正确的方式? 这是我使用的Matlab代码: D2=[-0.168164529475, 0.110811875773, -0.0002040135...
  • 0 votes
     answers
     views

    在平面上重建3d从2d投影与飞机的相机校准参数

    尝试使用“摄像机校准工具箱for Matlab”中的外部和内部摄像机参数,从摄像机图像中的2D像素坐标重建平面点的3D坐标 . intrinsic parameters : Focal Length :fc = [1017.21523 1012.54901] Principal point :cc = [319.50000 239.50000] extrinsic parameters : Tr...
  • 0 votes
     answers
     views

    从点 Cloud 构造表面时,消除拼接缺陷

    在这一刻,我对点 Cloud 的整个网格重建管道进行了一些研究,从捕获点 Cloud 数据开始,注册它们并重建表面 . 我可以从中捕获点 Cloud 数据的深度传感器 . 捕获的点 Cloud 实际上足够精确,并且在至少一对 Cloud 之间具有大的交叉区域以便很好地记录它们 . 但是在点 Cloud 的边缘会出现一些缺陷,即传感器看不到的扫描表面区域,成像器的切线区域(参见屏幕截图) . 我们在...
  • 1 votes
     answers
     views

    openCV立体匹配算法(stereoBM和stereoSGBM)可以与垂直整流图像一起使用

    我正在使用opencv库来进行立体声重建 . 我目前正在测试整流和立体声匹配 . 我使用了opencv 2.4.9中的stereoRectify函数,我使它工作正常 . 我使用了这个站点的测试数据:http://vision.middlebury.edu/mview/data/他们有图像以及相机矩阵,旋转和平移矩阵 . 问题是stereoRectify返回垂直对齐的图像(垂直立体声),因此极线是垂...
  • 1 votes
     answers
     views

    立体相机中相机的焦距允许有多大差异?

    在执行立体声校准之前,我使用openCV库进行了单相机校准,单摄像机校准的结果是: 相机1的焦距是:fx = 1.2462718254982949e 003,fy = 1.2462718254982949e 003,平均重投影误差= 3.3547184378077333e-001 相机2的焦距是:fx = 1.6148973771889357e 003,fy = 1.614897377188935...
  • 2 votes
     answers
     views

    通过具有校准矩阵进行3D重建

    我有一对图像和从未校准的相机中取出的相应点 . 我也有相机的校准矩阵 . 是否可以将2D图像坐标乘以校准矩阵的倒数,并像校准情况一样进行重建过程? (基本矩阵等)
  • 7 votes
     answers
     views

    从两个校准过的摄像机进行3D重建 - 这个管道中的错误在哪里?

    有许多关于从已知内部校准的立体视图进行3D重建的帖子,其中一些是excellent . 我已经阅读了很多这些内容,根据我所阅读的内容,我正在尝试使用下面的管道/算法来计算我自己的3D场景重建 . 我将列出方法,然后在底部询问具体问题 . 0. Calibrate your cameras: 这意味着检索相机1和相机2的相机校准矩阵K1和K2 . 这些是封装每个相机的3x3矩阵's intern...
  • 1 votes
     answers
     views

    从多个校准视图进行3D重建

    我有一个校准过的相机,其内在因素是在进行初始两次视图重建之前计算出来的 . 假设我在一个静态的刚体周围有20个图像,所有这些都是用相同的相机拍摄的 . 使用前两个视图和场景的地面实况测量,我有 1)使用Stewenius 5点算法进行初始重建以找到E(基本矩阵) . 2)相机矩阵P1和P2,其原点设置为相机P1的原点 . 我的问题是,我如何添加更多观看次数?对于前两个视图,我发现了特征点,因为我发...
  • 0 votes
     answers
     views

    旋转矩阵的轻微变化完全破坏了立体重建

    我试图基于两个摄像头的iamge特征和投影矩阵(通过特征匹配和基本矩阵计算计算)重建3D场景,所有这些都在OpenCV中完成 . 我遇到了一个奇怪的问题 . 主要地,点的三角测量和场景重建的准确性对R矩阵非常敏感 . 为了测试这个,我运行了一个测试,模拟物点通过两个投影矩阵传播(模拟立体声) . 物点是6x6平方; x:{0到1,步长为0.2},y:{0到1,步长为0.2},z:{全10} . 在...
  • 10 votes
     answers
     views

    相应图像的相机运动

    我正在尝试根据相应图像的运动计算新的摄像机位置 . 图像符合针孔相机模型 . 事实上,我没有得到有用的结果,所以我试着描述我的程序,并希望有人可以帮助我 . 我将相应图像的特征与SIFT匹配,将它们与OpenCV的FlannBasedMatcher匹配,并使用OpenCV的findFundamentalMat(方法RANSAC)计算基本矩阵 . 然后我通过相机内部矩阵(K)计算基本矩阵: Mat ...
  • 3 votes
     answers
     views

    未校准的多视图重建深度估计

    我正在尝试用MATLAB中的一组未校准的照片进行3D重建 . 我使用SIFT来检测图像之间的特征点和匹配 . 我想首先进行投影重建,然后使用自动校准将其更新为公制 . 我知道如何通过计算基本矩阵,相机矩阵和三角测量来估计来自2幅图像的3D点 . 现在说我有3张图片,a,b和c . 我为图像a和b计算相机矩阵和3D点 . 现在我想通过添加图像c来更新结构 . 我通过使用与图像c中的2D点匹配的已知3...
  • 1 votes
     answers
     views

    深度图合并或点 Cloud 合并

    我的目标是基于2对图像(AB,BC)及其投影矩阵创建单个3D点 Cloud . 每张图像来自同一相机(不是视频),具有3个不同的位置 . 我使用“标准过程”:点匹配(筛选或冲浪),仅保留内部,找到位置,进行束调整...图像整改 . 到目前为止一切运作良好 . 接下来,我使用Matlab函数“disparity”来创建2个视差图,每个图像对应一个 . 接下来,我使用投影矩阵创建2个分离的3dpoi...
  • 0 votes
     answers
     views

    使用Opencv和Python从立体视觉生成点 Cloud 期间使用相同的3D坐标

    我是OpenCV和3D重建的新手 . 我试图从相机拍摄的2张图像中生成点 Cloud . 我使用this库校准了相机 . 在这里,我得到了相机的内在参数 . 我使用ORB特征检测器和描述符 . 这些是主要图像和我在特征检测后得到的图像 . 然后我得到了基本矩阵并用它来得到基本矩阵 . 我用它来获取外在参数(旋转和平移) . 但我到底所有的3D坐标都是一样的 . 如果我使用不同的P1和P2(...
  • 3 votes
     answers
     views

    从深度图(带摄像头参数)的3d点重建

    一般介绍: 我用相同的相机拍摄的图像A和B(其中我知道内部参数K) . 然后我开始寻找F矩阵并从中找到基本矩阵 . 从那以后我恢复了完整的相机矩阵P和P' . 然后我纠正了两个图像并计算了深度图,如下所示: 我的问题 现在我想使用深度图执行密集的三维重建 . 不太清楚的是我应该用什么相机矩阵重新投影点P或P'? 还是另一种转变? P和P'是A和B的相机矩阵,但现在我正在考虑使用A和B的整流版本创建...
  • 0 votes
     answers
     views

    网格后点 Cloud 的ICP后的问题

    我使用ICP算法对合并点 Cloud 的网格有问题 . 首先,我在同一场景中有几个不同视点的点 Cloud . 我使用ICP(迭代最近点)注册它们 . 然后我使用Meshlab和CloudcompareStero等软件来获取已注册点 Cloud 的网格 . 我发现注册点 Cloud 是层次结构 . 它表现为注册点 Cloud 在深度方向上有多个层 . 虽然差异非常小(我在ICP中设置了高精度),...
  • 1 votes
     answers
     views

    如何在3Dreconstruction中获取Camera Matrix?

    我想用sfm实现一个3D重建算法, 但是我应该如何设置Camera Matrix的参数? 我有双摄像头,都知道他们的焦距 . 从世界观来看旋转矩阵和翻译矩阵怎么样? 我用python

热门问题