《无人车自主定位和障碍物感知的视觉主导多传感器融合方法(英文)》PDF+DOC
作者:Jian-ru XUE,Di WANG,Shao-yi DU,Di-xiao CUI,Yong HUANG,Nan-ning ZHENG
单位:中国工程院;浙江大学
出版:《Frontiers of Information Technology & Electronic Engineering》2017年第01期
页数:18页 (PDF与DOC格式可能不同)
PDF编号:PDFJZUS2017010100
DOC编号:DOCJZUS2017010109
下载格式:PDF + Word/doc 文字可复制、可编辑
《视觉SLAM系统分析》PDF+DOC2018年第19期 揭云飞,王峰,智凯旋,熊超伟,李学易
《无人车的场景理解与自主运动》PDF+DOC2018年第02期 薛建儒,李庚欣
《无人驾驶中的核心传感器系统分析》PDF+DOC2019年第02期 姜嘉睿
《自主定位导航技术在商用服务机器人中的应用与挑战》PDF+DOC2018年第03期 陈士凯
《惯导-视觉SLAM技术综述》PDF+DOC 杨梦佳
《基于ORB-SLAM2的实时网格地图构建》PDF+DOC2019年第10期 陆建伟,王耀力
《图书馆自动导航智能化机器人技术及应用探讨》PDF+DOC2019年第03期 李翠花
《基于超声波的室内移动机器人局部环境建模研究》PDF+DOC2006年第07期 庞文尧,钞海洋,罗小平,韦巍
《家用服务型吸尘机器人的发展与现状》PDF+DOC2003年第06期 吴秋轩,曹广益
《基于动态分区方法的多机器人协作地图构建》PDF+DOC2003年第02期 张洪峰,王硕,谭民,王龙
人类驾驶与自主驾驶在对交通环境的理解方式上有着明显差别。首先,人主要通过视觉来理解交通场景,而机器感知需要融合多种异构的传感信息才能保证行车安全。其次,一个熟练的驾驶员可以轻松适应各种动态交通环境,但现有的机器感知系统却会经常输出有噪声的感知结果,而自主驾驶要求感知结果近乎100%准确。本文提出了一种用于无人车交通环境感知的视觉主导的多传感器融合计算框架,通过几何和语义约束融合来自相机、激光雷达(LIDAR)及地理信息系统(GIS)的信息,为无人车提供高精度的自主定位和准确鲁棒的障碍物感知,并进一步讨论了已成功集成到上述框架内的鲁棒的视觉算法,主要包括从训练数据收集、传感器数据处理、低级特征提取到障碍物识别和环境地图创建等多个层次的视觉算法。所提出的框架里已用于自主研发的无人车,并在各种真实城区环境中进行了长达八年的实地测试,实验结果验证了视觉主导的多传感融合感知框架的鲁棒性和高效性。
提示:百度云已更名为百度网盘(百度盘),天翼云盘、微盘下载地址……暂未提供。