利用反深度进行深度估计?

2024-04-20 08:00:55 发布

您现在位置:Python中文网/ 问答频道 /正文

我一直在尝试实现这篇论文,Dense and Swift Mapping with Monocular Vision - Pedro Pinies, Lina Maria Paz, and Paul Newman,在那里,他们首先通过创建一个反向深度范围内的成本量来对深度进行初步估计。我使用绝对差的总和作为光度误差度量来实现这一部分。我把翘曲计算为

warp=K*LeftCameraPose*inv(RightCameraPose)*(inv(K)*inv_depth)

其中K是内部摄影机矩阵。我不确定这是否是正确的方法扭曲图像匹配方程(1)。我原以为最初的估计会是一个更嘈杂的事实,但我没有得到预期的结果。任何帮助都将不胜感激。在

下面是我的代码:

^{pr2}$

左右图像对(取自KITTI),以及我的结果和使用的基本真实值是here


Tags: andwithmappingdenseswiftvisioninvpaul