一、利用图像边沿特征实现相关跟踪(论文文献综述)
冯广增[1](2020)在《基于激光雷达的智能汽车近程环境感知应用研究》文中进行了进一步梳理智能汽车是汽车产业发展的重要方向。当前,智能汽车尚处于研发阶段,其中存在设计车速低、运行设计域小等问题,智能汽车近程范围内的环境感知问题未能较好地解决是造成该问题的重要原因之一。现有产品级自动驾驶感知系统主要配备毫米波雷达与视觉相机,难以实现近程范围内道路路肩、行人、异物等体积较小目标的感知。激光雷达具有较高的测量精度,可用于道路路肩与小型障碍物的探测。智能汽车利用激光雷达感知近程环境是提高其设计运行速度与适用范围的重要途径,但目前其技术应用尚不成熟。本课题旨在探索利用激光雷达进行智能汽车近程交通区域内的环境感知的应用研究,弥补毫米波雷达与视觉相机对在近程感知中的不足,主要研究内容包括以路肩为形式的道路边界的感知以及障碍物的准确探测,并通过实车实验进行验证。在道路边界感知方面,道路边界信息为智能汽车的全局路径规划提供数据支持。对于道路边界的临时性变化,高精度地图往往难以及时更新与标注,毫米波雷达与视觉相机对其检测又较为困难。本课题试图探索利用激光雷达来解决近程范围内道路边界的检测问题,主要包含三个方面:进行激光雷达的外参标定,将其输出的点云数据转换至车辆坐标系中;基于激光雷达与GPS/INS定位信息融合的方式实现主车的全局定位,获得车辆坐标系与全局惯性坐标系间的变换关系,其中,基于激光雷达的局部定位是采用目前先进的LOAM算法来实现;在车辆坐标系下,利用模型拟合方法实现基于激光点云的道路边界检测,并利用前述坐标转换关系获得全局惯性坐标系下的道路边界感知信息。实验结果表明,本文提出的道路边界感知方案具有一定的有效性与准确性。在障碍物感知方面,道路内障碍物与交通目标状态信息为智能汽车的局部行为决策提供数据支持。对于近程道路内体积较小的障碍物的检测,现有基于毫米波雷达与视觉相机的成熟方法都难以实现。本课题尝试探索利用激光雷达的高精度点云数据来获得近程道路内障碍物的感知信息,主要包含三个方面:利用前述外参标定后的点云数据基于分段平面拟合方法实现路面点云与非路面点的分离;基于经典的DBSCAN密度聚类方法检测出道路内的障碍物模型,在这里,针对DBSCAN算法的计算与内存需求大的问题以及目标点云近密远疏的特征,本文采取下采样处理、KD-Tree重组织与变阈值策略;采用最近邻法对前后帧障碍物检测信息进行数据关联,并基于滤波理论实现障碍物相对车辆坐标系的运动状态估计。实验结果显示,本文采取的障碍物感知方法对不同体积障碍物的检测具有一定的有效性与鲁棒性。
李雨生[2](2020)在《基于数据融合的无人驾驶技术道路检测与跟踪研究》文中研究表明无人驾驶汽车是一种具有自主决策能力,同时具备自适应和学习能力的智能交通设备。目前,自动驾驶技术在人工智能和汽车行业的飞速发展下逐渐成为业界焦点,除了传统汽车公司,各大科技巨头、技术型公司也纷纷进入自动驾驶领域,一旦技术成熟,自动驾驶将大大减少交通压力、交通排放和交通事故,给人们的生活带来极大的便利。自动驾驶领域中一个主要的研究方向是环境感知技术,若汽车对周围环境没有正确的认识,会导致自动驾驶汽车的任务决策、路径规划和车辆控制系统出现错误的判断,所以环境感知技术既是无人驾驶汽车其他技术的前提,也是核心部分。本文利用环境感知技术对汽车可行驶区域进行检测,主要利用摄像头、激光雷达及其数据融合的方式对车道区域进行检测与跟踪,主要的研究内容包含了以下几个部分:1)分析了国内外无人驾驶技术发展现状,重点对车道检测、多传感器数据融合和车道跟踪的方法和现状进行了研究,并明确了本课题中从图像、点云数据和利用数据融合方法提取车道区域所需解决的关键问题,并给出技术路线和研究方法。2)根据激光雷达具有鲁棒性强,获取物体三维信息丰富且不易受环境光影响的特点,提出了一种基于激光雷达的车道检测方法。利用16线激光雷达的3个低层扫描层获取道路点云数据,并针对每个扫描层点云数据进行单独检测,首先利用Voxel Grid滤波方法进行点云滤波,然后利用划分网格的方法对道路点云数据进行分区,分区后的点云将会分布在不同的矩形网格内,通过每个网格内在(4轴方向点云密度变化的特点搜索左右两侧的目标检测区域,最后分别对两个目标检测区域进行局部DBSCAN聚类,获取道路边沿点,在检测出车道边沿的同时也为后续数据融合做准备。3)针对传统的车道区域检测方法精度不高,经常出现误检和漏检等情况,提出了一种串联式的数据融合方法对车道区域进行检测。首先利用Apollo自动驾驶套件搭建实验平台并在时空上匹配点云数据和图像信息,然后分别对左右道路边沿点利用最小二乘法进行拟合,并对预先检测出的车道区域利用区域膨胀的方法确定出精确的感兴趣区域,最后在感兴趣区域内利用Hough变换检测出车道区域。4)深度神经网络语义分割已成为车道提取方面的热门话题,为了提高车道区域检测的精度和鲁棒性,提出了一种并联式的数据融合方法对车道区域进行检测。第一部分,模型采用编码和解码结构,在解码部分通过多层反卷积和特征提取层与上采样层形成拼接结构来改进Deeplab v3+网络结构,同时在编码部分依然采用空洞卷积和空洞空间金字塔池化(ASPP)来提取图像特征,从而进一步融合图像多尺度信息。第二部分,首先将语义分割图像和目标检测区域及道路边沿点进行数据匹配,然后利用图像遍历方法融合目标检测区域和语义分割图像,并判定语义分割图像的道路分割效果,最后根据融合策略对道路分割图像进行修正,实现了在目标级的数据融合方式下,以图像信息车道检测为主,点云数据辅助检测的方式对车道区域进行了提取。5)为了提高车道检测的鲁棒性,利用Kalman滤波和扩展Kalman滤波方法对车辆匀速直线运动和匀加速直线运动两种工况进行车道跟踪,根据对车道边沿点最小二乘法拟合和图像信息Hough变换检测出的车道线建立两个直线库,其中由激光雷达点云数据确定的第一直线库更新车道测量值,由Hough变换确定的第二直线库更新车道估计值,当相邻时刻车道边沿线匹配成功时,估计值代替测量值完成本时刻的车道状态跟踪。
钟家丽[3](2020)在《基于雷达图像特征的目标航迹算法研究》文中研究表明我国航运业务的高速发展,河道船舶数量越来越多,船道管理越来越复杂,船舶数量的增加,河道的管理越来越重要。我国经济实力近几年快速发展,电子信息产业在航运行业发展迅速,市场需量更为广阔,而民用雷达的产业却依靠进口,被国外公司所垄断,国内的雷达发展起点低,发展晚,我国能拥有自主的雷达知识产权有着极高的市场价值和研究意义。雷达安装在船舰上具有重要的作用,是船长的眼睛,用于观测岛屿和船只周围的情况,以确定船只的定位,显示航路情况,引导监督船舰的航行路线和状态,在船舶导航、避碰等方面有着较为重要的作用,在民用和军事等领域中有着重要角色,雷达对多目标的跟踪识别,随着科技的进步与发展,计算机水平以及图像处理技术的不断提高,通过图像处理的方法对雷达波形的目标进行处理,可以快速、高效、精确地检验出目标位置。从这个角度出发,本文研究了适用于民用船雷达的图像处理和目标匹配的算法。本文首先分析了民用船雷达的特征,研究点迹航迹的关联算法,针对这些算法的优缺点,来改进现有的问题,来实现雷达对图像中目标的检测跟踪。在对雷达图像的特征和目标特征匹配方法中,针对雷达目标在的梯度特征重点研究,提取出目标位置,面积,不变矩特征,像素点梯度作为目标匹配的特征值,用于多目标雷达图像序列的目标匹配并实现目标跟踪。然后研究了在航迹数据处理过程中的算法,常用的点迹凝聚方法有幅度加权凝聚算法,排序点迹凝聚算法,现有的点迹凝聚方法是利用距离信息将距离相近的亮点做聚类,当两艘相距较近的船,它们反射的雷达光斑距离非常近或者出现一定程度的粘连,现有的点迹会将其类聚成一个目标,先提出一种能够有效避免点迹粘连导致的目标航迹丢失的方法,详细介绍了该算法的步骤,然后介绍了雷达常用的航迹关联算法,如最近邻域法(NN)、概率数据关联法(PDAF)、联合概率数据关联法(JPDAF),仿真三种算法,验证在多目标交叉运动中JPDAF跟踪精度更好,对比了本文提出的新算法基于雷达图像的像素梯度算法辅助概率数据关联法,在多目标跟踪杂波环境下的点迹航迹关联算法效果更好。最后,通过软件设计实现雷达图像的显示,雷达的视频显示以电子海图为背景,可以显示目标船舶的航迹。在雷达目标点迹航迹关联的方法是采用图像处理的方法,实现雷达图像目标的点迹关联,形成航迹,通过仿真航道船舶的运动状态如交叉运动,平行,稀疏和密集状态下的船舶航迹关联的正确率,测试了该方法的实用性和有效性,标记出各个目标位置,通过雷达界面显示系统显示出雷达图像的各个目标点迹位置。
马沪敏[4](2020)在《基于激光雷达与视觉异源数据融合的道路检测技术研究》文中进行了进一步梳理随着经济的高速发展,交通事故呈现出高发态势,而高级辅助驾驶系统和自动驾驶在保障道路交通安全中,发挥着极其重要的作用。道路检测是车辆决策和执行的基础,为后续辅助驾驶或自动驾驶任务提供了强有力的保障。然而,道路检测通常面临着包括天气、光照变化以及阴影遮挡等的干扰,难以获取稳定、鲁棒的道路检测结果。大数据时代的到来和传感器的发展,使得通过多源数据融合的方法来获取更加可靠的结果成为一种趋势。本文通过将激光雷达点云数据和视觉图像数据两种异源数据相融合,实现一种稳定的道路检测方法。主要研究内容如下:(1)针对道路检测问题,对激光点云数据和图像数据进行预处理,建立两种数据间映射关系,完成两种数据的数据级融合,并通过颜色空间转换,减少光照变化对图像数据道路检测的干扰;(2)针对道路边沿检测方法检测精度与计算效率无法兼顾的问题,提出基于激光点云转向的道路边沿检测方法,结合道路区域特征以及激光点云不受光照干扰的优点,添加点云转向,并基于带L2正则的最小二乘法自适应的拟合道路边沿,实现了一种简单高效的道路边沿检测方法;(3)根据激光雷达点云数据以及视觉图像数据的结构特点与数据存储方式,分别选择并设计了激光点云与图像的道路特征,同时构造结合两种数据优势的特征。此外,基于FCN思想提取深层抽象特征,充分挖掘数据价值。通过将激光点云数据与视觉图像相结合,将手工构造的带领域知识的浅层特征与基于深度学习提取的深层抽象特征相结合,提高道路检测算法鲁棒性;(4)构造混合条件随机场(Mixed Conditional Random Field,M-CRF)用于道路检测,基于随机森林构造两种数据源的一元势,结合激光点以及像素点邻域特点改进成对势,设计混合连接关系,完成混合条件随机场的构建,实现两种数据源的决策级融合。基于M-CRF的异源数据融合道路检测方法,实现了激光点云数据和视觉图像数据的多级融合,在KITTI数据集上进行测试验证,基于M-CRF的道路检测方法可获取稳定鲁棒的道路检测效果。
赵启明[5](2019)在《基于方向空间多尺度相关滤波跟踪》文中指出目标跟踪是一种非常实用的计算机技术。目标跟踪算法根据目标的初始信息,通过计算机设备将需要跟踪的视频序列逐帧检测目标位置,然后将跟踪结果(目标位置以及尺寸大小)进行输出。随着目标跟踪技术在实际应用场景中的广泛使用,更快更好的目标跟踪技术已经成为越来越多的学者们工作的重点。目标跟踪算法的核心是目标特征的提取以及目标模板的匹配,本文围绕该核心问题进行了以下几方面的研究:1.提出了一种基于Gabor滤波器的相关滤波目标跟踪算法。该方法使用Gabor滤波器获得目标特征,通过不同尺度以及方向的选择提取目标的多个特征,并根据Gabor滤波器所提取的特征组来训练相关滤波器参数,然后利用该滤波器模板来计算每组特征所对应的相关响应图,通过各个滤波器的响应图加权得到最终的目标位置。同时根据目标是否发生遮挡来选择是否更新滤波器参数,使滤波器与新目标相适应,以便进行后续帧的跟踪。当目标发生光照变化、形状改变以及快速平移时,所提出的方法具有良好的跟踪效果。2.提出了一种基于散射变换的多层相关滤波跟踪方法。该方法利用散射描述子来建立目标的特征模型,根据目标的散射描述子构建多层相关滤波器。同时,针对多层相关滤波器的特点,提出每层滤波器的权值自适应更新方法以及对应的遮挡判别方法,并实现了相关滤波模型参数的更新。当目标发生形状改变、光照条件变化以及遮挡时,所提出的方法具有很好的鲁棒性。3.提出了一种基于方向空间边沿特征的多尺度相关滤波跟踪方法,提取目标区域的方向空间边沿特征,将其和相关滤波器结合,采用自适应更新滤波器权值的方法,通过多个相关响应图的加权值来确定最终目标的位置;应用尺度评估方法,在得到目标位置的基础上,选取多个尺度的目标特征描述子,通过尺度滤波器来确定最终的目标尺度。当目标发生形状改变、光照条件变化以及尺度变化时,所提出的方法仍能对目标进行准确跟踪,算法的鲁棒性良好。
程诚[6](2019)在《基于单目机器视觉的智能车局域定位技术研究与实现》文中提出基于单目机器视觉的智能车局域定位技术是车辆环境感知的重要部分,它不仅能够实现车辆的局域二维环境的重建,还能够实时地获取车辆的相对位置,达到智能车辅助驾驶的作用。本文研究了基于插值法的单目广角相机的非规则畸变全域校正技术、基于单目机器视觉的智能车辆局部环境图像快速拼接定位技术。论文主要内容如下:1.论文概述了智能车环境感知和局域定位技术的背景、发展状况,分析了存在的问题和研究工作的难点等。2.针对大广角单目相机畸变大、径向与切向畸变分布不均匀、图像拼接效果差等问题,本文使用了TPS(Thin Plate Splines)和Biharmonic两种插值算法插值法进行广角相机畸变校正,验证了基于插值法广角相机畸变校正的有效性。并以此为基础上,针对TPS插值算法对于角落区域校正结果误差极大的问题,根据广角相机的特殊畸变情况,改进了TPS插值算法实现非规则全域畸变校正。该算法使用改进TPS插值算法,根据检测棋盘格与期望棋盘格映射关系,拟合出两个相机偏移曲面,并通过反向双线性插值得到畸变校正图像。实验验证了基于改进TPS插值的广角相机的非规则畸变全域校正技术,提高相机畸变校正的精度,为图像拼接及车辆局域定位奠定基础。3.针对通常的基于特征点匹配的图像拼接方法计算数据大、计算复杂度高、耗时多等问题,应用改进金字塔LK(Lucas-Kanade)光流跟踪算法替代特征点匹配方法,该方法使用改进LK有效地避免了特征点检测与配准复杂的计算过程,在满足车辆环境图像拼接精度要求的情况下,较大的提高了序列图像拼接速度。4.设计了基于单目机器视觉的智能车局域定位定姿实验系统,通过实车道路场景实验,验证了本文算法的有效性。
周剑[7](2019)在《面向无人驾驶的道路场景建模关键技术研究》文中认为感知系统是无人驾驶平台与现实空间联系最为紧密的部分。在实际道路场景下,感知结果的准确性直接反映车辆整体的智能化水平。本文针对实际道路场景下无人驾驶系统对于环境感知的具体需求,围绕道路场景感知建模中涉及的基于单目相机的车道线检测、基于多特征融合的道路边界提取以及基于三维激光雷达车辆检测与跟踪三个关键问题进行深入研究。相关方法在自主研发的三代无人驾驶平台中得到应用,具体研究内容包括以下几个方面:1)提出基于误差传递模型和Bresenham Line的车道线检测方法。为了提高单目相机模型下道路车道线的量测精度,本文首先引入摄影测量中常用的透视作图分析法,对车道线检测视角下透视变换的点、线、面特性进行分析,构建适合车道线检测的灭点相机模型。然后,利用测量平差中常用的误差传递模型对该相机模型进行分析,计算图像空间的高可靠区域来保证车道线特征尺度的计算精度。为了提高直线检测的算法效率和提取精度,利用计算机图像学中的Bresenham Line直线生成方法,在离散空间提高单位角度内投票直线表达密度,并减少浮点计算提高算法效率。最后,结合基于增量回归的几何模型和卡尔曼滤波的运动模型实现车道线的参数拟合和跟踪。2)考虑三维激光雷达的时空特性,提出基于区域划分和级联特征融合的道路边界提取方法。考虑三维激光雷达的空间特性,结合点云疏密特性,对局部道路场景进行区域划分。首先,对不同道路区域,通过不同尺度下的深度变化特征和角度特征级联的方式实现道路区域由粗到精,由近至远的渐优提取。然后,路面分割的基础上,结合视觉车道线特征,在特征层实现道路多车道模型的超视域检测。最后,结合三维激光雷达的时序特性对整体方法进行优化,利用点云采集过程的间隙时间实现特征检测的异步处理,极大的提高算法整体的实时性。3)提出基于轮廓点云特征线和偏离模型的动态车辆检测与跟踪该方法。引入图像处理中的线特征提取方法,利用点云切向角度平均梯度提取锚点特征。以锚点为轮廓点云特征线提取的起点,利用最小二乘方法在同一扫描线的点云数据中完成最小线特征初始化,并通过邻域增长的方式完成轮廓点云中线特征快速提取。根据点云时空特性,进行直线相似度匹配,得到轮廓主方向线,并在主方向线的基础上完成车辆的实时检测和几何模型构建。结合车道几何参数,构建目标车辆的偏离运动模型,通过卡尔曼滤波器实现车辆位置和姿态的准确跟踪。
冯清泉[8](2018)在《基于传感器数据融合的道路场景理解》文中认为智能驾驶是未来交通发展的方向,自动驾驶汽车为驾驶员带来便利,同时又能提升交通效率。依赖于多种传感器的环境感知层是智能驾驶的重要部分。本文基于毫米波雷达和图像传感器之间的数据融合,以检测前方目标为研究对象,目的是为自动驾驶汽车的路径规划系统提供准确、可靠、具有鲁棒性的前方环境感知信息,具有重要意义。本文研究道路场景理解的三个方面:预测道路主方向,目标位置估计,预测目标运动方向和行为。主要工作包括:1,对比毫米波雷达、相机和激光雷达等传感器的优缺点;研究毫米波雷达的原理和特性;研究基于毫米波雷达数据检测道路护栏和道路边缘算法,实现了对道路主方向的预测。2,利用卡尔曼滤波方法和生命周期方法,研究构建毫米波雷达有效目标决策模型,实现了对目标点的有效跟踪滤波。3,构建毫米波雷达和相机的数据采集系统,建立两个传感器数据的时空融合模型,完成了不同传感器数据的空间对齐和时间配准。4,研究基于毫米波雷达和图像数据融合算法,对比分析多种基于深度学习的图像车辆目标检测算法。利用有效目标决策模型处理过后的毫米波雷达目标,与图像目标实现了目标级融合,有效的完成了目标位置校正和目标运动方向预测。
肖良[9](2017)在《基于结构化预测的道路场景理解技术研究》文中进行了进一步梳理道路场景理解是自主驾驶汽车中的关键技术问题,本文以基于车载相机和三维激光雷达的道路场景理解为研究对象,着眼充分挖掘感知数据中的上下文信息,重点研究了如何利用结构化预测的上下文建模能力提高道路检测和道路场景语义理解水平。本文的主要工作和创新点如下:(1)提出了一种新的高效的基于结构化随机森林的单目道路检测算法和一种新的道路标志线检测算法。考虑到图像局部像素表观特征的歧义性及图像中道路的结构性,提出利用结构化随机森林的方法进行图像小片级结构化预测。在训练阶段,通过建立结构化标记小片到离散标记的映射,使得结构化随机森林可以采用和传统随机森林一样的信息增量准则进行训练。这种基于结构化随机森林的道路检测算法考虑了图像小片中的上下文信息和道路的结构信息,能够有效降低图像局部像素表观特征的歧义性。同时通过每次预测实现对一个小片中所有像素的类别预测,相比传统的逐像素随机森林分类器具有更高的效率,通过在KITTI-ROAD公开数据集和实验车辆采集的野外非结构化道路数据上的测试验证了基于结构化随机森林的道路检测算法在性能和效率上优于传统随机森林分类方法。本文还将结构化随机森林应用于道路标志线检测,通过设计针对性图像特征并采用与道路检测类似的思路进行训练和测试。这种基于结构化随机森林的道路标志线检测算法能够有效克服传统方法的阈值选择难题,通过在Caltech车道线数据库上的测试验证了该方法的性能。(2)提出了两种基于条件随机场的相机和激光雷达融合算法并成功应用于道路检测。相机和激光雷达各有其优缺点,稳定的道路检测需要融合两者的优势。本文提出的融合框架克服了传统的相机与激光雷达融合算法往往被其中一种传感器主导的缺点,在条件随机场的概率框架下实现细粒度融合。提出的FusedCRF算法将随机场建立在像素栅格上,同时将激光雷达观测的信息作为与每个激光雷达点对齐的像素的额外能量项,将图像和点云的观测及图像的上下文一致先验整合到一个概率模型中进行联合推理。提出的HybridCRF算法在FusedCRF的基础上更进一步,将随机场直接建立在像素和点云上,在能量函数中显式的对图像的上下文一致性、点云的上下文一致性和跨模态对齐数据之间的一致性进行建模并进行联合推理。本文提出的方法实现了细粒度传感器融合与上下文建模的结合,本文将其应用于道路检测并在KITTI-ROAD数据集上取得了良好的效果,本文提出的HybridCRF算法在UM子集上的性能在非深度学习算法中排名第一。(3)提出了两种新的基于深度卷积神经网络的语义场景理解算法。其中联合全卷积与区域分类的语义分割网络将全卷积神经网络和基于区域的语义分割两者的优势结合,在提取高层卷积特征的基础上分全卷积网络和基于区域分类的网络两个通道进行处理,其中基于区域分类的网络利用区域到像素的映射将区域得分映射到像素平面,再将两个通道生成的像素级类别预测得分求和进行融合。通过在SIFT Flow数据库上的实验验证了该算法的有效性。另一种基于膨胀全卷积稠密连接网络的语义分割算法在最新的稠密连接网络的基础上进行全卷积改造,使得网络能够保持稠密连接网络参数紧凑、特征复用和易于训练的优点,同时通过减少降采样层及在网络的后端引入膨胀卷积使得可以获取具有更高空间分辨率的特征图和对更大范围上下文信息的建模。通过在Pascal VOC分割数据库集CamVid道路场景理解数据集上的测试验证了该网络模型的优势。
赵翔[10](2017)在《基于多传感器的道路交通标线识别和车道级定位方法研究》文中进行了进一步梳理道路交通标线的检测与车辆的车道级定位,是智能交通系统中的一项重要研究内容。道路交通标线,包括车道线以及地面交通标志等,给驾驶员提供了准确的道路指引信息;结合车道级定位,驾驶员可以提前对行驶路径进行规划或错误修正。针对这两方面内容,本文研究了道路交通标线的检测与车辆的车道级定位方法。首先,研究了基于单目视觉的道路交通标线检测识别方法。首先对单目摄像头进行标定,获取摄像头原始图像对应的实时逆透视图像,消除因成像原理造成的透视效应。在逆透视图像的基础上,分别研究了车道线和地面交通标志的检测方法。其次,传统方法对强光、逆光、阴影、车道线磨损遮挡和车辆障碍物等干扰检测不鲁棒,针对这些场景下存在的问题,本文提出了一种基于自定义投票空间的车道线检测方法,采用二维高斯滤波和分位数二值化的处理方法消除光线、阴影等恶劣情况的影响,提高了算法的鲁棒性。随后,研究了地面交通标志的检测方法。地面交通标志具有明显的边缘几何形状轮廓特征,目前主要采用的是模板匹配和机器学习的方法,采用的特征有Hu矩、Zernike矩等低维矩特征,但采用矩特征准确率不高。针对这个问题,本文对比了模板匹配和机器学习方法,提出了一种Hu不变矩和Zernike矩的混合特征进行SVM训练学习的方法,使用多分类器进行地面交通标志的识别与分类,提高了检测效率和识别准确率。最后,研究了车道级定位的问题。目前的定位方法多采用高精度GPS或者激光雷达点云匹配方法,但是高精度GPS成本高,激光雷达非全气候通用,在雨雪等情况下传感器受到较大影响。针对这一问题,本文提出了一种融合视觉、毫米波雷达以及低精度GPS的低成本方案。使用单目摄像头检测车道线,使用毫米波雷达检测道路两旁的连续边界障碍物以提取道路边界,根据低精度GPS和OSM地图,结合车道线和道路边界的检测结果,进行车道级的定位。
二、利用图像边沿特征实现相关跟踪(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、利用图像边沿特征实现相关跟踪(论文提纲范文)
(1)基于激光雷达的智能汽车近程环境感知应用研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 课题的背景与提出 |
1.2 课题相关研究现状 |
1.2.1 智能汽车的发展研究现状 |
1.2.2 激光雷达在智能汽车环境感知中的应用研究现状 |
1.3 本文主要研究内容与章节安排 |
第2章 道路边界感知技术研究 |
2.1 激光雷达外部参数标定方法介绍 |
2.1.1 数据获取 |
2.1.2 外参标定 |
2.2 智能汽车全局位姿的融合估计方法研究 |
2.2.1 激光雷达定位 |
2.2.2 LiDAR与 GPS/INS融合的全局位姿估计 |
2.3 道路边界检测的模型拟合方法研究 |
2.3.1 道路边界检测算法概述 |
2.3.2 模型拟合的道路边界检测方法 |
2.4 本章小结 |
第3章 道路障碍物感知技术研究 |
3.1 原始点云数据预处理 |
3.1.1 点云滤波处理方法介绍 |
3.1.2 路面区域的平面拟合方法研究 |
3.2 障碍物目标检测 |
3.2.1 聚类算法分析 |
3.2.2 障碍物检测的点云密度聚类方法研究 |
3.3 障碍物运动状态估计 |
3.3.1 数据关联 |
3.3.2 基于CS模型的状态估计方法研究 |
3.4 本章小结 |
第4章 实验与验证 |
4.1 实验平台及环境 |
4.1.1 硬件平台搭建 |
4.1.2 软件环境 |
4.2 实验验证及分析 |
4.2.1 道路边界感知结果 |
4.2.2 障碍物感知结果 |
4.3 本章小结 |
第5章 全文总结和研究展望 |
5.1 全文总结 |
5.2 研究展望 |
参考文献 |
致谢 |
(2)基于数据融合的无人驾驶技术道路检测与跟踪研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 引言 |
1.2 课题研究背景及意义 |
1.3 国内外研究现状 |
1.3.1 无人驾驶汽车国外发展现状 |
1.3.2 无人驾驶汽车国内发展现状 |
1.3.3 车道检测研究现状 |
1.3.4 多传感器数据融合的车道检测研究现状 |
1.3.5 车道跟踪研究现状 |
1.4 研究内容与论文安排 |
1.4.1 需要解决的关键问题 |
1.4.2 技术路线 |
1.4.3 论文安排 |
第2章 基于激光雷达的车道检测 |
2.1 引言 |
2.2 车道边沿检测方法 |
2.2.1 车载激光雷达 |
2.2.2 点云滤波 |
2.2.3 改进DBSCAN算法路沿检测 |
2.3 本章小结 |
第3章 基于串联式数据融合的车道检测 |
3.1 引言 |
3.2 实验平台与传感器搭建 |
3.2.1 硬件与软件需求 |
3.2.2 实验平台搭建 |
3.2.3 数据融合方法 |
3.2.4 激光雷达与摄像头的空间标定与时间匹配 |
3.3 基于数据融合的车道检测方法 |
3.3.1 确定车道感兴趣区域 |
3.3.2 Hough变换检测车道区域 |
3.4 车道边沿检测算法验证 |
3.4.1 车道检测结果 |
3.4.2 路沿检测对比分析 |
3.5 本章小结 |
第4章 基于并联式数据融合的车道检测 |
4.1 引言 |
4.2 目标数据融合方法 |
4.2.1 数据融合框架 |
4.2.2 卷积神经网络 |
4.3 道路分割方法 |
4.3.1 道路分割模型网络结构 |
4.4 基于数据融合的车道区域提取 |
4.4.1 遍历道路边界 |
4.4.2 数据融合策略 |
4.5 实验结果分析 |
4.5.1 道路分割模型测试 |
4.5.2 融合方法验证 |
4.6 本章小结 |
第5章 无人驾驶汽车车道跟踪 |
5.1 引言 |
5.2 车道跟踪方法 |
5.3 kalman滤波算法 |
5.3.1 Kalman滤波基本方程 |
5.3.2 基于Kalman滤波的车道跟踪 |
5.4 扩展kalman滤波算法 |
5.4.1 扩展Kalman滤波原理 |
5.4.2 基于扩展Kalman滤波的车道跟踪 |
5.5 实验结果分析 |
5.6 本章小结 |
第6章 结论与展望 |
致谢 |
参考文献 |
攻读硕士学位期间发表的论文及参与的科研项目 |
(3)基于雷达图像特征的目标航迹算法研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 引言 |
1.2 课题目的及意义 |
1.3 国内外的发展现状和发展趋势 |
1.3.1 雷达目标跟踪研究现状 |
1.3.2 数据关联研究现状 |
1.3.3 图像目标跟踪研究现状 |
1.4 本文结构安排 |
第二章 雷达回波的数据处理及图像处理 |
2.1 航海雷达图像特征 |
2.2 地图匹配 |
2.3 陆地消隐 |
2.4 目标位置 |
2.4.1 目标距离 |
2.4.2 目标位置的获取 |
2.5 本章小结 |
第三章 雷达点迹数据处理 |
3.1 雷达点迹凝聚方法分析 |
3.2 目标点迹凝聚的基本方法 |
3.2.1 传统点迹凝聚算法 |
3.2.2 幅度加权点迹凝聚算法 |
3.2.3 幅度排序点迹凝聚算法 |
3.3 基于像素点关联的点迹凝聚算法步骤 |
3.4 仿真结果与算法性能分析 |
3.4.1 仿真结果 |
3.4.2 算法性能分析 |
3.5 本章小结 |
第四章 雷达航迹数据关联算法 |
4.1 经典的数据关联算法 |
4.1.1 最近邻法 |
4.1.2 概率数据关联算法 |
4.1.3 联合概率数据关联法 |
4.2 雷达目标图像特征提取航迹关联 |
4.2.1 雷达目标个数判断 |
4.2.2 像素梯度分布特征实现点迹航迹匹配 |
4.3 计算仿真与分析 |
4.3.1 雷达的多目标跟踪航迹关联的仿真 |
4.3.2 雷达的多目标跟踪算法的分析与对比 |
4.4 本章小结 |
第五章 雷达数据的通用处理 |
5.1 雷达显示软件系统结构 |
5.1.1 功能图 |
5.1.2 软件的界面设计 |
5.2 实验效果 |
5.3 本章小结 |
总结与展望 |
本文工作总结 |
本文工作展望 |
参考文献 |
攻读硕士学位期间取得的学术成果 |
致谢 |
(4)基于激光雷达与视觉异源数据融合的道路检测技术研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状及发展趋势 |
1.2.1 基于视觉图像的道路检测 |
1.2.2 基于激光雷达的道路检测 |
1.2.3 基于异源数据融合的道路检测 |
1.3 本文研究内容及技术路线 |
1.4 论文结构安排 |
第二章 道路检测基础理论 |
2.1 传感器模态 |
2.1.1 激光雷达点云 |
2.1.2 视觉图像 |
2.1.3 激光点云与视觉图像对比分析 |
2.2 道路特征提取及分类器选择 |
2.2.1 道路特征提取 |
2.2.2 道路检测分类 |
2.3 多模态信息融合方法 |
2.3.1 数据级融合 |
2.3.2 特征级融合 |
2.3.3 决策级融合 |
2.4 道路检测数据集 |
2.5 道路检测评价指标 |
2.6 本章小结 |
第三章 基于激光点云的道路特征分析与建模 |
3.1 点云数据预处理 |
3.1.1 点云数据和图像数据的联合校准 |
3.1.2 基于M估计样本一致性的地平面拟合 |
3.2 基于点云数据的三维道路特征提取 |
3.3 结合激光点云转向的道路边沿检测 |
3.4 实验结果及分析 |
3.5 本章小结 |
第四章 基于视觉图像的道路特征分析与建模 |
4.1 图像数据预处理 |
4.2 视觉道路特征提取 |
4.2.1 结合阴影抑制的图像道路特征提取 |
4.2.2 结合激光点云的图像道路特征提取 |
4.3 基于深度学习的道路特征提取 |
4.4 本章小结 |
第五章 基于M-CRF的异源数据融合道路检测及实验 |
5.1 点云子条件随机场构建 |
5.1.1 基于随机森林的点云子条件随机场一元势构建 |
5.1.2 基于最近邻邻域的点云子条件随机场成对势构建 |
5.2 图像子条件随机场构建 |
5.2.1 基于随机森林的图像子条件随机场一元势构建 |
5.2.2 图像子条件随机场成对势构建 |
5.3 混合条件随机场构建 |
5.3.1 M-CRF模型构建 |
5.3.2 M-CRF模型参数求解 |
5.4 实验结果及分析 |
5.5 本章小结 |
第六章 总结与展望 |
6.1 全文总结 |
6.1.1 工作总结 |
6.1.2 主要贡献及创新点 |
6.2 研究展望 |
致谢 |
参考文献 |
攻读硕士学位期间取得的成果 |
(5)基于方向空间多尺度相关滤波跟踪(论文提纲范文)
摘要 |
ABSTRACT |
符号对照表 |
缩略语对照表 |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 生成式跟踪算法 |
1.2.2 判别式跟踪算法 |
1.3 本文的研究内容及章节安排 |
1.3.1 主要内容 |
1.3.2 章节安排 |
第二章 相关理论介绍 |
2.1 HOG特征 |
2.2 Gabor滤波器 |
2.2.1 一维Gabor滤波器 |
2.2.2 二维Gabor滤波器 |
2.3 散射变换 |
2.3.1 视觉描述子 |
2.3.2 散射描述子 |
2.4 相关滤波方法 |
2.4.1 最小平方和误差输出 |
2.4.2 核相关滤波器(KCF) |
2.5 评价指标 |
2.6 本章小结 |
第三章 基于Gabor滤波器的相关滤波跟踪 |
3.1 引言 |
3.2 样本描述 |
3.3 建立搜索窗 |
3.4 提取Gabor特征 |
3.5 核相关滤波 |
3.6 检测和更新过程 |
3.7 算法步骤 |
3.8 实验结果与分析 |
3.9 本章小结 |
第四章 基于散射变换的多层相关滤波跟踪 |
4.1 引言 |
4.2 散射描述子的组合 |
4.3 多层相关滤波器 |
4.3.1 构建相关滤波器模型 |
4.3.2 更新目标模型权值 |
4.3.3 遮挡判别 |
4.3.4 更新相关滤波器参数 |
4.4 算法步骤与流程 |
4.5 实验结果与分析 |
4.6 本章小结 |
第五章 基于方向空间边沿特征的多尺度相关滤波跟踪 |
5.1 引言 |
5.2 方向空间边沿特征 |
5.3 尺度空间跟踪 |
5.4 基于方向空间边沿特征的多尺度相关滤波跟踪 |
5.4.1 位置估计 |
5.4.2 尺度估计 |
5.5 实验结果与分析 |
5.6 本章小结 |
第六章 总结与展望 |
6.1 总结 |
6.2 工作展望 |
参考文献 |
致谢 |
作者简介 |
(6)基于单目机器视觉的智能车局域定位技术研究与实现(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 研究背景和意义 |
1.2 定位方法研究现状 |
1.3 论文的主要工作和章节安排 |
1.3.1 论文的主要工作 |
1.3.2 论文的章节安排 |
第2章 基于序列图像拼接的定位技术分析 |
2.1 相机标定 |
2.1.1 针孔相机模型 |
2.1.2 坐标系 |
2.1.3 坐标变换 |
2.1.4 相机畸变模型 |
2.1.5 Tsai的两步法 |
2.1.6 张正友方法 |
2.2 图像拼接 |
2.2.1 逆投影透视变换 |
2.2.2 随机抽样一致算法 |
2.3 光流跟踪技术 |
2.3.1 Horn&Schunck算法 |
2.3.2 Lucas&Kanade算法 |
2.3.3 块匹配算法 |
2.3.4 改进金字塔光流算法 |
2.3.5 特征光流法与区域光流法 |
2.4 本章小结 |
第3章 基于插值法的相机畸变校正算法 |
3.1 棋盘格检测 |
3.1.1 棋盘格检测方法 |
3.1.2 改进棋盘格检测方法 |
3.2 基于插值法的相机畸变校正 |
3.2.1 薄板样条插值算法 |
3.2.2 二次谐波插值算法 |
3.3 双线性插值算法 |
3.4 改进的TPS算法 |
3.5 算法内容 |
3.6 畸变校正实验与分析 |
3.7 本章小结 |
第4章 基于光流法的序列图像拼接算法 |
4.1 算法概述与框架 |
4.2 跟踪点优化 |
4.3 图像拼接 |
4.4 实验与分析 |
4.5 本章小结 |
第5章 基于单目机器视觉的定位定姿设计与实验 |
5.1 需求分析 |
5.2 系统构架 |
5.2.1 硬件构架 |
5.2.2 软件构架 |
5.3系统实验 |
5.3.1 离线部分 |
5.3.2 在线部分 |
5.3.3 性能分析 |
5.4 本章小结 |
第6章 总结与展望 |
6.1 总结 |
6.2 展望 |
参考文献 |
致谢 |
攻读硕士学位期间从事的科研工作及取得的成果 |
(7)面向无人驾驶的道路场景建模关键技术研究(论文提纲范文)
摘要 |
ABSTRACT |
第1章 绪论 |
1.1 研究背景与意义 |
1.2 无人驾驶研究历程和发展趋势 |
1.2.1 国外无人驾驶发展历程 |
1.2.2 国内无人驾驶发展历程 |
1.2.3 无人驾驶发展趋势 |
1.3 实时道路场景建模的相关概念 |
1.3.1 道路几何结构 |
1.3.2 障碍物检测与跟踪 |
1.3.3 交通信号识别 |
1.4 论文章节内容安排 |
第2章 基于单目视觉的实时车道线检测与跟踪 |
2.1 引言 |
2.2 相关工作 |
2.3 基于误差传递模型的车道线特征边缘提取 |
2.3.1 灭点相机模型 |
2.3.2 ROI区域初始化 |
2.3.3 基于正负对称平均梯度边缘特征提取 |
2.4 基于BRESENHAM LINE算法的直线快速提取 |
2.4.1 投票空间的构建 |
2.4.2 图像空间到投票空间的变换 |
2.4.3 直线参数修正 |
2.5 模型自适应的车道线拟合和参数跟踪 |
2.5.1 几何模型估计 |
2.5.2 跟踪模型 |
2.6 实验结果及分析 |
2.6.1 实验平台 |
2.6.2 边缘特征提取对比试验 |
2.6.3 直线检测效率对比 |
2.6.4 自身数据车道线提取效果 |
2.6.5.公开数据集对比实验 |
2.7 本章小结 |
第3章 基于级联特征融合道路边界提取 |
3.1 引言 |
3.2 相关工作 |
3.3 三维激光雷达工作原理 |
3.3.1 三维激光雷达硬件组成 |
3.3.2 点云数据采集过程 |
3.3.3 点云坐标计算 |
3.4 基于区域划分和特征级联的路面分割 |
3.4.1 基于角度特征的路面分割方法 |
3.4.2 基于多特征级联的路面分割方法 |
3.4.2.1 近处区域路面分割 |
3.4.2.2 远处区域路面分割 |
3.4.3 基于三维激光雷达的时序特征的算法效率优化 |
3.4.3.1 扫描线预处理 |
3.4.3.2 三维激光雷达的时序特征 |
3.4.3.3 基于时序特征的算法效率优化 |
3.5 多传感器融合的多车道检测 |
3.5.1 路沿特征提取 |
3.5.2 融合车道线和路沿的直线车道模型构建 |
3.5.3 基于分段最小二乘的路沿拟合 |
3.6 实验与总结 |
3.6.1.路面分割实验 |
3.6.1.1 实时性分析 |
3.6.1.2 检测效果分析 |
3.6.2.路沿检测实验 |
3.7 本章小结 |
第4章 基于轮廓点云线特征和偏离模型车辆检测与跟踪 |
4.1 引言 |
4.2 相关工作 |
4.3 车辆轮廓点云线特征提取 |
4.3.1 锚点检测 |
4.3.2 直线提取 |
4.3.3 线特征聚类 |
4.4 融合车道偏离模型的车辆检测与跟踪 |
4.4.1 基于车辆方向线特征的目标聚类 |
4.4.2 基于车道偏离参数的车辆运动模型 |
4.5 实验与分析 |
4.5.1 实时性分析 |
4.5.2 检测效果分析 |
4.6 本章小结 |
第5章 总结和展望 |
5.1 总结 |
5.2 主要创新点 |
5.3 展望 |
参考文献 |
攻博期间研究经历和科研成果 |
参与的科研项目 |
研究经历及获奖情况 |
发表的学术文章 |
致谢 |
(8)基于传感器数据融合的道路场景理解(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景和意义 |
1.1.1 研究背景 |
1.1.2 研究意义 |
1.2 方法综述 |
1.2.1 基于图像的目标检测和跟踪方法 |
1.2.2 基于毫米波雷达和图像融合的目标检测和跟踪方法 |
1.2.3 基于毫米波雷达和图像数据融合的场景理解 |
1.3 研究内容和章节安排 |
1.3.1 论文的主要研究内容 |
1.3.2 论文的组织结构 |
第二章 基于毫米波雷达的目标检测和跟踪 |
2.1 毫米波雷达原理 |
2.1.1 毫米波雷达特性分析 |
2.1.2 毫米波雷达安装 |
2.1.3 毫米波雷达探测原理 |
2.2 道路护栏检测 |
2.2.1 基于最小二乘法的道路护栏检测 |
2.2.2 基于主成分分析的道路护栏检测 |
2.2.3 最小二乘法与PCA算法的对比分析 |
2.3 毫米波雷达有效目标跟踪 |
2.3.1 毫米波雷达数据预处理 |
2.3.2 有效目标决策算法 |
2.3.3 实验验证与结果分析 |
2.4 本章小结 |
第三章 基于传感器融合的车辆目标运动方向检测 |
3.1 多传感器的数据采集与处理 |
3.1.1 数据采集系统 |
3.1.2 数据处理系统 |
3.2 基于深度学习的目标检测算法 |
3.3 毫米波雷达和图像的目标匹配 |
3.3.1 匹配方法 |
3.3.2 实验结果与分析 |
3.4 目标位置校正和运动方向预测 |
3.4.1 目标位置校正 |
3.4.2 目标运动方向预测 |
3.5 实验与分析 |
3.5.1 目标位置校正实验与分析 |
3.5.2 目标运动方向预测实验与分析 |
3.5.3 道路主方向和目标运动方向相互验证 |
3.6 本章小结 |
第四章 总结与展望 |
4.1 本文工作总结 |
4.2 工作展望 |
致谢 |
参考文献 |
作者在学期间取得的学术成果 |
(9)基于结构化预测的道路场景理解技术研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景与研究意义 |
1.1.1 智能汽车研究现状 |
1.1.2 本课题研究意义 |
1.2 道路场景理解简介 |
1.2.1 场景理解常用传感器 |
1.2.2 道路场景理解研究现状 |
1.3 结构化预测概述及其优势 |
1.3.1 结构化预测 |
1.3.2 结构化预测与上下文建模 |
1.4 论文组织结构与创新点 |
1.4.1 本文组织结构 |
1.4.2 本文创新点 |
第二章 基于结构化随机森林的单目道路场景理解 |
2.1 引言 |
2.2 相关工作 |
2.2.1 单目道路检测相关工作 |
2.2.2 单目道路标志线检测相关工作 |
2.3 随机森林分类器及其结构化扩展 |
2.3.1 决策树 |
2.3.2 随机森林 |
2.3.3 随机森林的结构化扩展 |
2.4 基于结构化随机森林的道路检测 |
2.4.1 本文方法 |
2.4.2 特征提取 |
2.4.3 实验及结果分析 |
2.5 基于结构化随机森林的道路标志线检测 |
2.5.1 本文方法 |
2.5.2 特征提取 |
2.5.3 实验及结果分析 |
2.6 本章小结 |
第三章 基于多传感器融合与条件随机场的道路检测 |
3.1 引言 |
3.2 相关工作 |
3.3 三维激光雷达与单目视觉数据配准 |
3.4 基于条件随机场的结构化预测 |
3.4.1 条件随机场概述 |
3.4.2 条件随机场的推理 |
3.5 基于传感器融合与条件随机场的道路检测 |
3.5.1 基于融合随机场(FusedCRF)的道路检测 |
3.5.2 基于混合随机场(HybridCRF)的道路检测 |
3.5.3 模型求解 |
3.6 单元分类器 |
3.6.1 训练样本标记 |
3.6.2 特征提取 |
3.6.3 分类器训练 |
3.7 实验结果及分析 |
3.7.1 数据库 |
3.7.2 FusedCRF算法验证与分析 |
3.7.3 HybridCRF算法验证与分析 |
3.8 本章小结 |
第四章 基于深度结构化预测模型的语义场景理解 |
4.1 引言 |
4.2 深度学习及其在语义场景理解中的应用 |
4.2.1 深度学习的代表:卷积神经网络 |
4.2.2 从离散类别预测到结构化预测:全卷积神经网络 |
4.2.3 深度网络的优化方法 |
4.3 基于联合全卷积与区域分类的深度网络的语义场景理解 |
4.3.1 联合全卷积与区域分类的语义分割网络 |
4.3.2 端到端训练 |
4.3.3 实验及结果分析 |
4.4 基于膨胀全卷积稠密连接网络的语义场景理解 |
4.4.1 网络结构 |
4.4.2 实现细节 |
4.4.3 模型扩展 |
4.4.4 实验及结果分析 |
4.5 本章小结 |
第五章 总结与展望 |
5.1 总结 |
5.2 展望 |
致谢 |
参考文献 |
作者在学期间取得的学术成果 |
(10)基于多传感器的道路交通标线识别和车道级定位方法研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景与意义 |
1.2 国内外研究现状 |
1.2.1 车道线检测方法 |
1.2.2 地面交通标志检测 |
1.2.3 车道级定位方法 |
1.3 本文主要研究内容 |
第二章 基于单目视觉的车道线检测方法 |
2.1 引言 |
2.2 正射影像生成与标定 |
2.3 车道线模型 |
2.3.1 直线模型 |
2.3.2 曲线模型 |
2.4 道路图像预处理 |
2.4.1 道路图像灰度化 |
2.4.2 道路图像的滤波增强处理 |
2.4.3 道路图像的二值化 |
2.5 基于自定义投票的车道线检测与识别 |
2.5.1 基于Hough变换和角度聚类的候选车道线提取 |
2.5.2 基于自定义投票的车道线检测方法 |
2.5.3 基于改进的快速RANSAC曲线拟合 |
2.6 基于Kalman滤波的车道线跟踪 |
2.7 实验结果与分析 |
2.8 本章小结 |
第三章 基于单目视觉的地面交通标志检测方法 |
3.1 引言 |
3.2 图像预处理 |
3.3 基于形状规则的待匹配区域提取 |
3.3.1 轮廓检测 |
3.3.2 形状规则约束 |
3.3.3 二值化和边界压缩 |
3.4 基于模板匹配的地面交通标志检测 |
3.4.1 基于旋转模板的三种匹配算法 |
3.4.2 基于分位数的相似度分割阈值计算 |
3.4.3 基于旋转模板的匹配效果 |
3.5 基于矩特征和支持向量机的地面交通标志检测 |
3.5.1 图像矩特征 |
3.5.2 支持向量机 |
3.5.3 多分类问题 |
3.6 实验结果与分析 |
3.7 本章小结 |
第四章 基于多传感器融合的车道级定位方法 |
4.1 引言 |
4.2 方法综述 |
4.3 单目摄像机和毫米波雷达的联合标定和数据融合 |
4.4 基于单目视觉的车道线检测 |
4.5 基于毫米波雷达的道路边界检测 |
4.5.1 坐标变换和数据预处理 |
4.5.2 道路边界提取 |
4.6 车道级定位方法 |
4.7 实验结果与分析 |
4.8 本章小结 |
第五章 总结与展望 |
5.1 总结 |
5.2 展望 |
参考文献 |
致谢 |
攻读硕士学位期间已发表或录用的论文 |
四、利用图像边沿特征实现相关跟踪(论文参考文献)
- [1]基于激光雷达的智能汽车近程环境感知应用研究[D]. 冯广增. 吉林大学, 2020(08)
- [2]基于数据融合的无人驾驶技术道路检测与跟踪研究[D]. 李雨生. 西南交通大学, 2020(07)
- [3]基于雷达图像特征的目标航迹算法研究[D]. 钟家丽. 安徽大学, 2020(07)
- [4]基于激光雷达与视觉异源数据融合的道路检测技术研究[D]. 马沪敏. 电子科技大学, 2020(07)
- [5]基于方向空间多尺度相关滤波跟踪[D]. 赵启明. 西安电子科技大学, 2019
- [6]基于单目机器视觉的智能车局域定位技术研究与实现[D]. 程诚. 重庆邮电大学, 2019(02)
- [7]面向无人驾驶的道路场景建模关键技术研究[D]. 周剑. 武汉大学, 2019(06)
- [8]基于传感器数据融合的道路场景理解[D]. 冯清泉. 国防科技大学, 2018(01)
- [9]基于结构化预测的道路场景理解技术研究[D]. 肖良. 国防科技大学, 2017
- [10]基于多传感器的道路交通标线识别和车道级定位方法研究[D]. 赵翔. 上海交通大学, 2017(02)