高通的AR眼镜,可以实时3D重建了!

AR增强现实1年前 (2023)发布 aixure
65 0 0
导读:新智元报道 编辑:Aeneas 【新智元导读】 依靠自监督神经网络单眼深度估计,高通眼镜可以实时3D重建了。 高通的AR眼镜,可以实时3D重建了! 最近,高通展示了他们使用自监督神经网络单眼深度估计,在AR眼镜和智能手机上实现实时3D重建的过程。 当使用者戴上A…

新智元报道

编辑:Aeneas

【新智元导读】依靠自监督神经网络单眼深度估计,高通眼镜可以实时3D重建了。

高通的AR眼镜,可以实时3D重建了!

最近,高通展示了他们使用自监督神经网络单眼深度估计,在AR眼镜和智能手机上实现实时3D重建的过程。

当使用者戴上AR眼镜后,就实时生成了房间的3D影像。

AR眼镜显示的视角,就是用户所观察到的视角。而这些图像被输送到高通的低延迟深度估计模型中,预测的深度和相机的6自由度被提供给了重建模型。

「自我监督」的意思,是使用重投影损失来监督每个单目深度模型。

而实时生成的3D网格和平面非常准确,使物理世界与数字世界的沉浸式AR体验得以无缝对接。

办公环境深度图的相对误差最小可达10-20%,而深度估计延迟小于9ms。

Qualcomm AI Research:最新的3D感知前沿研究

如此神奇的功能,背后的原理是怎样的呢?

在7月高通的一篇blog上,我们或许可以找到答案。

让我们来看看这篇博客

世界是3D的,作为人类,我们是以3D的方式感知这世界世界。

与2D相比,3D感知具有许多优势,使我们能够更准确地感知和参与我们周围的世界这就是为什么使机器具有这种能力这么重要。

例如,3D感知有助于在不同的光照条件下获得可靠的结果,为物体和场景识别提供可靠的线索,并且准确地估计尺寸、姿势和运动。

启用和增强关键用例

3D感知使得跨设备和行业的许多程序能够改善我们的生活,从XR和自动驾驶,到物联网、相机和移动设备。

例如,要实现沉浸式 XR,在6自由度运动估计、避障、物体放置、逼真渲染、手势估计以及虚拟环境中的交互中,3D感知都至关重要。

3D感知极大地促进了沉浸式XR

3D感知为自动驾驶提供极大的助力,自动驾驶利用来自摄像头、LiDAR和雷达的3D数据流,让更安全的驾驶成为可能。

3D感知还可用于3D地图重建,它可以将车辆定位在道路上,寻找可通行的路面,避开障碍物,估计车辆、行人等物体的轨迹,进行路径规划等等。

3D感知需要克服的新挑战

为了更好地理解世界,3D感知依赖于多项任务,其中许多任务在概念上与2D感知很相似。

现在,使3D感知的AI SOTA模型成为现实,并在受功率、热和性能限制的边缘设备上进行大规模的实际部署,一直是很大的挑战。

值得注意的是,有两类挑战很突出数据和实施挑战。

与像素排列在均匀网格上的2D图像不同,3D点云非常稀疏且不均匀,这就需要在可访问性与内存之间取得一个平衡。

3D感知面临数据和实施挑战

使大规模3D感知成为现实

Qualcomm AI Research领导的这项3D感知研究,独特之处在于开发了全新的AI技术。

高通的专家通过全栈AI研究构建真实世界的部署,并创建了一个节能平台,使3D感知无处不在。

专家使用Qualcomm AI Stack工具包和SDK进行了全栈优化,实现了许多3D感知突破。

这其中的四个关键领域深度估计、目标检测、后估计和场景理解的细节,如下所示。

3D感知研究的四个关键领域

跨不同模式的准确深度估计

深度估计和3D重建是从2D图像创建场景和物体的3D模型的感知任务。我们的研究利用输入配置,包括单个图像、立体图像和 3D 点云。

研究院已经为单目和立体图像开发了 SOTA 监督和自我监督学习方法,这些方法不仅高效,而且非常准确。

除了模型架构之外,全栈优化还包括使用DONNA(提取最佳神经网络架构)进行神经架构搜索,以及使用AI 模型效率工具包 (AIMET)进行量化。

因此,高通在手机了展示了世界上第一个实时单眼深度估计,可以从单个图像创建3D图像。

高效准确的3D物体检测

3D物体检测是指寻找单个物体的位置和区域的感知任务。

例如,目标可能是在用于自动驾驶的 LiDAR 数据上检测所有车辆和行人的相应 3D 边界框。

专家正在使3D点云中的高效对象检测成为可能。

为此,他们开发了一种基于变换器的高效3D对象检测架构,这个架构利用的是在极地空间中提取的2D伪图像特征。

凭借更孝更快和更低功耗的模型,专家在LiDAR 3D点云上的车辆、行人和交通标志检测方面取得了最高的准确度分数。

低延迟和准确的3D姿势估计

3D姿态估计是指寻找物体方向和关键点的感知任务。

对于XR应用程序,对于在虚拟环境中与虚拟对象进行直观交互,准确且低延迟的手部和身体姿势估计是至关重要的。

专家开发了一种具有动态改进功能的高效神经网络架构,以减少手部姿势估计的模型大小和延迟。

这个模型可以从2D图像解释3D的人体姿势和手部姿势,计算可扩展架构迭代改进了关键点检测,误差小于5毫米这就实现了最佳的平均3D误差。

3D场景理解

3D场景理解是指将场景分解为其3D和物理组件的感知任务。

专家开发了世界上第一个用于场景理解的基于变换器的逆向渲染。

经过端到端训练的管道从室内图像估计基于物理的场景属性,例如房间布局、表面法线、反照率(表面漫反射率)、材料类型、对象类别和照明估计等。

高通的AI模型可以更好地处理场景组件之间的全局交互,从而更好地消除形状、材料和照明的歧义。

目前,专家在所有3D感知的任务上都取得了SOTA结果,并支持高质量的AR应用程序,例如将逼真的虚拟对象插入到真实的场景中。

这个方法可以正确地估计光照,以逼真地插入物体,例如兔子

更多3D的感知突破即将到来

现在,高通的专家正在3D感知方面进行更多的研究,并且有望在神经辐射场 (NeRF)、3D模仿学习、神经SLAM(同步定位和映射)以及RF (Wi-Fi/5G) 中的3D场景理解方面取得更多突破。

此外,随着机器学习研究工作的推进,高通的感知研究会比3D感知广泛得多。

在XR、相机、移动、自动驾驶、物联网等领域,会有更多感知设备出现。

我们的日常生活,在未来会大不相同。

参考资料:

https://www.reddit.com/r/MachineLearning/comments/z60wuh/r_qualcomm_demos_3d_reconstruction_on_ar_glasses/

赞助本站

© 版权声明

相关文章

暂无评论

暂无评论...