激光网
当前位置: 首页 > 3D打印 > 正文

网络结合了3D LiDAR和2D图像数据,能够更可靠地检测小物体

2024-01-10 09:38:08  来源:激光网原创    

机器人和自动驾驶汽车是技术领域中增长最快的领域之一,有可能使工作和运输更安全、更高效。由于机器人和自动驾驶汽车都需要准确感知周围环境,因此 3D 目标检测方法是一个活跃的研究领域。

大多数 3D 物体检测方法都使用 LiDAR 传感器来创建其环境的 3D 点云。简而言之,LiDAR 传感器使用激光束快速扫描和测量光源周围物体和表面的距离。然而,由于 LiDAR 对噪声的高度敏感,单独使用 LiDAR 数据可能会导致错误,尤其是在降雨等恶劣天气条件下。

为了解决这个问题,科学家们开发了多模态 3D 物体检测方法,将 3D LiDAR 数据与标准相机拍摄的 2D RGB 图像相结合。虽然 2D 图像和 3D LiDAR 数据的融合带来了更准确的 3D 检测结果,但它仍然面临着一系列挑战,对小物体的准确检测仍然很困难。

问题主要在于充分对齐从2D和3D数据集中独立提取的语义信息,由于校准不精确或遮挡等问题,这很难。

在此背景下,由日本立命馆大学Hiroyuki Tomiyama教授领导的研究团队开发了一种创新方法,使多模态3D目标检测更加准确和鲁棒。所提出的方案称为“动态点-像素特征对齐网络”,在他们发布在IEEE物联网杂志上的论文中进行了描述。

该模型由三个新模块的多个实例组成:基于内存的点-像素融合模块、可变形点-像素融合模块和语义对齐评估器模块。

MPPF 模块的任务是在模态内特征和跨模态特征之间执行显式交互。使用2D图像作为存储区降低了网络学习的难度,并使系统对D点云中的噪声具有更强的鲁棒性。此外,它促进使用更全面和更具辨别性的特征。

相比之下,DPPF 模块仅在关键位置的像素处执行交互,这些交互是通过智能采样策略确定的。这允许以较低的计算复杂性进行高分辨率的特征融合。最后,SAE 模块有助于确保在融合过程中两种数据表示之间的语义对齐,从而缓解特征模糊问题。

研究人员通过将DPPFA-Net与广泛使用的KITTI Vision Benchmark的最佳表现者进行比较来测试DPPFA-Net。值得注意的是,所提出的网络在不同噪声条件下实现了高达7.18%的平均精度提升。为了进一步测试其模型的能力,该团队通过将降雨形式的人工多模态噪声引入KITTI数据集,创建了一个新的噪声数据集。

结果表明,所提出的网络不仅在面对严重遮挡的情况下,而且在各种恶劣天气条件下都比现有模型表现更好。Tomiyama教授说:“我们对KITTI数据集的广泛实验和具有挑战性的多模态噪声案例表明,DPPFA-Net达到了一个新的水平。

值得注意的是,精确的 3D 物体检测方法可以通过多种方式改善我们的生活。依靠这种技术的自动驾驶汽车有可能减少事故,改善交通流量和安全性。此外,机器人领域的影响不容小觑。“我们的研究可以促进机器人更好地理解和适应其工作环境,从而更精确地感知小目标,”Tomiyama教授解释说。

“这些进步将有助于提高机器人在各种应用中的能力。3D目标检测网络的另一个用途是为深度学习感知系统预先标记原始数据。这将大大降低人工注释的成本,加速该领域的发展。

免责声明: 激光网遵守行业规则,本站所转载的稿件都标注作者和来源。 激光网原创文章,请转载时务必注明文章作者和来源“激光网”, 不尊重本站原创的行为将受到激光网的追责,转载稿件或作者投稿可能会经编辑修改或者补充, 如有异议可投诉至:Email:133 467 34 45@qq.com