谷歌预测景深新研究:单一视点也能合成3D深度图

一个你边走边拍得到的普通视频,现在也能重建出精准的3D世界了。

这一次,谷歌用深度学习的方法,不仅从视频中重建了移动对象的景深图,而且效果精准惊艳。即使拍摄相机和人物同时在运动,也能很好重建景深图。

输入这样的视频:

  谷歌在博客中表示,这是世界首个在摄像机和人体同时运动情况下的深度学习景深预测算法,优于制作深度图的最先进工具。

  半天时间,推特有近千次的点赞,网友表示:“超级酷”。

  研究论文也被CVPR 2019 接收,脱颖而出成为一篇Oral论文。

  学习先验

  让网友high起来的点在于,传统的创建景深图的方法,需要至少两个视点同时捕捉影像。通过两个不同的视角在同一时间段的变化轨迹,才能拼接重建出3D的影像。

  就像下面这样:

  而谷歌的这项研究,只需要用一个视点的影像即可预测位置关系进行重建,比传统方法简化了不是一星半点,变成了下面这样:

  在论文Learning the Depths of Moving People by Watching Frozen People中,研究人员介绍了具体的设计细节。

  和传统方法最大的改进在于,谷歌的新方法可以用深度学习,从数据中学习人体姿态和形状的先验知识,避开了直接的3D三角测量3D triangulation)。

  这个模型应该如何去构建?  郑州不孕不育医院:http://jbk.39.net/yiyuanzaixian/zztjyy/郑州不孕不育医院哪家好:http://jbk.39.net/yiyuanzaixian/zztjyy/郑州不孕不育医院排行:http://jbk.39.net/yiyuanzaixian/zztjyy/

  如何获取训练数据是摆在前面的第一个问题,在这个数据集中,需要移动的摄像机拍摄的自然场景视频,以及精确的深度图。这样的数据集,似乎在谷歌家族产品中就能找到。

  研究人员选取了YouTube上关于#假人挑战#Mannequin Challenge)话题的数据,在这种类型的视频中,被拍摄者需做出一个定格动作,且要表现与人体模型一样静止不动,并由摄影师透过移动镜头的技巧进行拍摄:

  有了这些数据,再利用多视角立体 Multi-View Stereo,MVS)算法,就可以获取到包含其中人物在内整个场景的深度图了。

Published by

风君子

独自遨游何稽首 揭天掀地慰生平

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注