作者:Jian-ru XUE,Di WANG,Shao-yi DU,Di-xiao CUI,Yong HUANG,Nan-ning ZHENG 单位:中国工程院;浙江大学 出版:《Frontiers of Information Technology & Electronic Engineering》2017年第01期 页数:18页  (PDF与DOC格式可能不同) PDF编号:PDFJZUS2017010100 DOC编号:DOCJZUS2017010109 下载格式:PDF + Word/doc 文字可复制、可编辑
  • 人类驾驶与自主驾驶在对交通环境的理解方式上有着明显差别。首先,人主要通过视觉来理解交通场景,而机器感知需要融合多种异构的传感信息才能保证行车安全。其次,一个熟练的驾驶员可以轻松适应各种动态交通环境,但现有的机器感知系统却会经常输出有噪声的感知结果,而自主驾驶要求感知结果近乎100%准确。本文提出了一种用于无人车交通环境感知的视觉主导的多传感器融合计算框架,通过几何和语义约束融合来自相机、激光雷达(LIDAR)及地理信息系统(GIS)的信息,为无人车提供高精度的自主定位和准确鲁棒的障碍物感知,并进一步讨论了已成功集成到上述框架内的鲁棒的视觉算法,主要包括从训练数据收集、传感器数据处理、低级特征提取到障碍物识别和环境地图创建等多个层次的视觉算法。所提出的框架里已用于自主研发的无人车,并在各种真实城区环境中进行了长达八年的实地测试,实验结果验证了视觉主导的多传感融合感知框架的鲁棒性和高效性。

    提示:百度云已更名为百度网盘(百度盘),天翼云盘、微盘下载地址……暂未提供。