问题描述
我想构建一个输出 RGB-D 图像/视频的程序/函数。 RGB-D 图像是一个普通的 rgb 图像,但每个像素也有一个像这样的深度分量:
此代码将可以访问您手机的所有数据,因此我可以访问多个摄像头、加速度计、方向数据等。我的目标是制作最好的 RGB-D 视频。
我发现了两种主要的方法,一种是 VO(视觉里程计),在这种方法中,您将普通视频输入到某种算法中,通常是 CNN(卷积神经网络)。该算法比较某些跟踪点的距离变化,并得出深度图,如下所示:
VIO(视觉惯性里程计)数据类似,但它需要惯性测量,例如加速度计数据。我已经看到 ARCore 正在这样做here:
问题是,我不确定哪种方法可以产生更好的 RGB-D 数据,而且我无法与真实值进行比较。我很想使用 ARCore/WebXR,因为它有一个易于使用的 JS Api,它易于使用,因为它可以在手机上运行,而不是为 VO 编译 C++ 代码,后者使用 KITTI 或 SLAM 等算法。
我的问题是,收集最准确的 RGB-D 数据的最佳方法是什么?
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)