一、DSP小型微光数字图像处理器关键技术研究(论文文献综述)
李大珍[1](2020)在《基于DSP的红外车辆目标识别与跟踪系统设计》文中研究表明红外目标的识别与跟踪作为计算机视觉领域的热点研究方向,国内外研究学者针对红外图像的强隐蔽性、强抗干扰性和强环境适应性等特点开展了大量研究,相关学术成果已广泛应用于军用领域、工业应用领域及交通运输、视频监控等民用领域。然而,在军用领域,随着系统集成度和微小综合系统要求的提高,系统设备的处理器既需满足图像处理算法的高性能要求,又需具备小体积、低功耗特点。因此,完成体积小、重量轻、功耗低的可实现红外目标跟踪与识别的硬件系统设计与样机研制,就显得尤其重要。基于真实战地环境条件下汽车、坦克等目标红外图像的识别与跟踪原理,通过综合对比分析各类硬件平台优缺点,本文提出了基于单DSP处理器的红外车辆目标识别与跟踪系统方案。以小型化和低功耗为目标,基于模块化的思想,完成了DSP硬件系统平台设计。DSP硬件平台主要包括视频采集单元、图像处理及控制单元和视频输出单元。视频采集单元主要用于完成目标红外信息的图像采集,并将获取的红外图像信息输出至图像处理及控制单元。图像处理及控制单元主要用于红外图像预处理、目标识别与目标跟踪处理,控制视频采集单元、视频输出单元对目标图像的采集与输出。视频输出单元用于接收图像处理及控制单元输出的图像,并传输至显示器显示。本文提出的高斯滤波+阈值分割+序贯相似性检测算法,简单有效,适用于单DSP处理器。高斯滤波和阈值分割算法可很好的减少图像的背景噪声,并准确分割提取目标图像,序贯相似性检测算法可较好实现目标图像的识别与跟踪。基于VS和Open CV,开展了高斯滤波、阈值分割法和序贯相似性检测算法对红外车辆目标识别与跟踪的有效性和实用性的仿真验证,结果表明,算法满足红外车辆目标识别与跟踪使用需求。结合硬件系统平台硬件资源特点,完成图像处理算法移植,并开展了提高图像处理效率的优化设计,完成了红外车辆目标识别与跟踪系统硬件软件集成与应用。结果表明,该系统外形尺寸为5cm*6cm*1cm,系统功耗不大于3w,非常适合于野外、空中、海上等供电要求严苛、空间小的小型无人机或便携式地面设备等武器系统。
林俤[2](2020)在《复杂背景下反无人机的智能光电搜索跟踪技术研究》文中指出随着国际反恐和安保形式的变化,必须对来自空中的“低慢小”目标进行有效的防范。城市空中安保面临的空中威胁多为“低慢小”目标,固定翼目标机动飞行的速度可达30~50m/s,飞行角速度较大,且存在机动。在目标机动情况下,高精度拦截系统需要光电搜索跟踪系统的激光测距光轴实时照准目标,以获取目标位置信息,并实时估计目标机动运动参数,这对光电搜索跟踪系统的跟踪精度提出了很高的要求。另一方面,由于城市环境楼宇及建筑物众多,背景复杂,相对于常规净空背景下的无人机目标跟踪,对光电搜索跟踪系统复杂背景下的目标探测及图像跟踪能力也提出了新的要求。智能光电搜索跟踪系统能够实现城市复杂背景下对空中“低慢小”目标的实时搜索、捕获和跟踪,以便为高精度的拦截系统提供目标运动参数。针对复杂背景下“低慢小”目标探测及高精度跟踪的难点,本文分析了目标和复杂背景成像特点,提出了多光谱多元探测光学系统设计方案,将目标信息获取从常规的单一通道扩展为多个通道,使目标和背景可以在不同的波段上进行区分。在多光谱成像探测的基础上重点研究了复杂背景下的目标图像搜索跟踪技术和高精度伺服跟踪技术。在多光谱成像探测的基础上,对于目标机动情况下的高精度伺服跟踪技术,针对多种类型的“低慢小”目标机动能力和典型飞行方式的不同,提出了基于神经网络的IMM卡尔曼滤波前馈补偿跟踪方法。该方法将各种类型目标的机动特性建模后加入IMM卡尔曼滤波机动模型中,并采用神经网络目标识别模型来对搜索到的空中目标进行识别,根据识别到的目标类型自动调整IMM卡尔曼滤波参数,使滤波器对目标的机动特性获得最佳估计。从而为前馈补偿控制算法提供精确的前馈补偿控制量。高精度的伺服控制可保证在目标机动情况下,光学系统光轴仍可以稳定对准目标,使得测距激光可实时连续对目标进行测距。对于城市复杂背景下的目标图像搜索跟踪技术,提出了基于多光谱探测的多模复合TLD目标跟踪算法。在实际系统应用中,TLD算法存在耗时较长,容易产生跟踪漂移等缺点。因此,为了获得实时稳定的跟踪算法,本文提出了改进的复合TLD目标跟踪算法,一方面,图像处理前端首先对获取的图像进行融合处理,融合后的视频帧一路经过抽取(原始50Hz,抽取后为10Hz),之后送入TLD目标跟踪算法,另一路直接送入KCF目标跟踪算法中,KCF算法实时性高,运算速度快,在运行正常的情况下,TLD算法会对KCF样本进行更新,以弥补KCF算法不能适应目标尺度变化及局部遮挡的情况,最外层采用基于先验信息的神经网络目标识别技术,在内层算法丢失目标后重新捕获目标,复合跟踪算法将三种算法进行优势互补,提高了跟踪稳定性和可靠性。对于城市复杂背景下建筑物对无人机的遮挡情况,通过IMM卡尔曼滤波技术来解决目标进入遮挡区域后对其运动轨迹的预测问题。无人机在进入遮挡区域后,其轨迹预测误差随时间的增长而增加。在短时间内,IMM卡尔曼滤波器的预测精度较高,随着时间的增长,目标出现各种机动的概率增加。提出了抗长时遮挡的IMM卡尔曼滤波-TLD目标跟踪算法,并进行了单机试验验证。对多机联合跟踪情况进行了仿真。本章算法根据目标出现区域的概率来自适应的调整跟踪波门,以使目标脱离遮挡区域后能够以较大概率重新进入跟踪视场。本文对以上关键技术在理论分析的基础上,进行了相关试验验证,证明了其算法的有效性。对于机动目标的跟踪精度验证,在实验室环境采用目标模拟器模拟各种目标机动,采用光电搜索跟踪系统实时跟踪并评估其跟踪精度,采用基于神经网络的IMM卡尔曼滤波前馈补偿控制器较常规控制器精度可提高3倍以上,实际系统在外场验证目标典型机动跟踪精度优于0.5mrad;在外场环境验证了多模复合TLD目标跟踪算法,较常规KCF或TLD算法,包含复杂背景下测试视频集的平均测试精度评估为0.9。单次抗遮挡跟踪试验中,基于IMM卡尔曼滤波将轨迹预测误差从常规预测的53m减小到15m。提高光电搜索跟踪系统的智能化水平、抗遮挡能力和精确跟踪能力是未来城市复杂背景反无人机系统的发展方向。对反无人机相关关键技术进行深入研究无论是军用还是民用反恐都将具有重要意义。
朱进[3](2018)在《微光/热红外图像色彩传递及多尺度分解融合算法研究》文中指出低照度可见光(微光)成像和热红外成像作为当前夜视技术的两种主要手段,是世界各国大力发展的关键技术。单独由微光成像或热红外成像系统难以兼顾场景细节表现能力和目标探测性能,但二者具有较好的目标场景信息互补性。因此,微光和热红外图像融合技术作为当前学科发展前沿?多波段图像融合技术的重要研究内容,已成功应用于夜视成像等领域,明显提升了夜视成像效果。为更加充分地发挥微光和热红外双波段图像融合的优势,进一步挖掘各传感器源图像中的细节(边缘)信息,突出目标特征信息,提高人眼的视觉感知效果,适应日益提高的应用要求,本文对多波段成像的源图像滤波与增强技术、基于色彩传递的图像融合方法、基于多尺度分解的融合方法以及融合图像的目标探测/识别能力等开展深入研究。主要包括:(1)针对微光视频图像的噪声问题,研究提出了一种基于统计特性的噪声强度估计方法,实现了基于梯度域引导滤波(Gradient Domain Guided Filtering,GDGF)的自适应降噪(Adaptively Denoising based on GDGF,GDGF-AD)算法,通过主客观对比,在综合考虑降噪效果和处理效率的条件下,GDGF-AD算法具有明显优势,具备硬件实时化处理的潜力,为解决微光夜视降噪难题提供了一种新的技术途径。同时,针对红外图像细节模糊的问题,研究了基于GDGF的图像细节增强方法,较基于引导滤波的经典方法,可获得更好的细节增强效果。(2)研究了基于色彩传递的彩色图像融合作为灰度图像融合算法的有效性和可行性。实验表明:通过YUV颜色空间进行灰度图像融合是一种可行的途径,基于YUV色彩传递的灰度图像融合处理相对于经典的灰度融合算法在对比度和清晰度方面有较明显优势。提出的算法已在图像处理平台上实现了实时处理,使可见光(微光)与热红外成像的自然感彩色融合与灰度融合处理融为一体,可根据观察需要选择适宜的融合模式,为高性能彩色/灰度图像融合成像系统的应用提供了灵活的选择。(3)基于色彩传递的彩色图像融合思想,研究提出了一种低照度夜视图像自然感彩色化及增强(Luminance Stretching Color Transfer,LSCT)算法,不仅可使微光视频图像获得自然感的色彩表现,而且可有效提高图像的对比度,实验表明:LSCT算法可获得更好的人眼视觉感知效果,运算量小,已在硬件平台上实现了实时运行,具有广泛的应用前景。(4)研究建立了基于GDGF的图像混合多尺度分解结构,由此提出了一种基于GDGF混合多尺度分解的灰度融合(Hybrid Multi-Scale Decomposition based on GDGF,HMSD-GDGF)算法,实验表明:HMSD-GDGF算法在显着信息(包含结构相似度、亮度和对比度)的保真度、边缘信息的保留和人眼的视觉观察效果均具有较为明显的优势;算法需调节的参数少,结合给定的分解层数,可根据源图像尺寸大小自主选择最佳的分解尺度系数,对不同的图像具有较强的普适性。在HMSD-GDGF算法的基础上,进一步提出了一种用于夜视效果增强的融合(Fusion for Night-vision Context-Enhancement,FNCE)算法,使用自适应亮度拉伸方法提高夜间可见光图像的效果,并对源图像进行滤波降噪和适当的细节增强,通过HMSD-GDGF算法对增强的源图像进行融合,结合夜视应用特点改进融合参数,实验表明:FNCE算法可获得更好的夜视增强效果。(5)研制了一台便携式微光/长波红外图像融合夜视实验系统,通过目标探测/识别主观评价实验,从目标探测/识别概率、不同观察距离影响及不同场景影响三个方面分析了实验数据,总结得出:相比于单微光或单长波红外通道,恰当的融合方法会对目标探测/识别有较为明显的增强效果;不同彩色融合色彩表现会影响对目标的探测/识别能力;虽然不恰当的彩色融合可能降低目标探测/识别能力,但存在对绝大部分场景均有较明显增强效果的彩色融合模式。研究工作对如何进一步有效提升目标探测/识别能力具有一定的指导意义。本文在国家自然科学基金等项目的支持下,结合夜视技术的前沿发展方向和应用需求,对微光/热红外图像融合理论和相关技术进行了研究,部分研究成果已成功应用于我国的某些新型武器装备,获得了很好的使用效果,为我国彩色夜视技术的发展和应用拓展提供了理论和关键技术支持。
李希国[4](2009)在《基于达芬奇平台的微光视频实时处理系统关键技术的研究与实现》文中认为随着微光夜视技术的迅速发展,它在军事侦察,公安侦探,航空航天,石油勘探,水下作业,井下作业等领域都得到广泛应用。夜视设备的微型化,是这些领域的普遍需求,这就要求将微光视频处理技术与嵌入式技术相结合,生产出符合需求的便携设备。进行这方面的研究具有很大的理论意义和实用价值,也是当前国内外研究的热点课题。这种系统要求处理芯片具备强大的运算能力和灵活的系统整合能力。通用的DSP、FPGA、ASIC以及通用处理器(如ARM)处理芯片,在运算能力和控制功能等方面都不能满足要求。本文采用的德州仪器公司的TMS320DM6446平台,内部集成ARM和DSP双内核,具有高性能、低功耗、集成方便等特点,能同时满足运算和控制两方面的要求。本文通过对达芬奇平台TMS320DM6446软硬件架构的分析和研究,针对微光视频的特征,提出一种适用于嵌入式平台的微光夜视图像增强算法,设计并实现了基于TMS320DM6446平台的微光视频实时处理系统。论文的主要工作包括:1.研究了嵌入式开发系统的搭建过程。包括开发板U—boot、linux内核裁剪、编译、下载,linux的TFTP、SSH、NFS等各种系统服务搭建与使用,linux与windows之间的通信,vi的使用等。2.研究了适用于嵌入式处理平台的微光图像处理技术。在分析适用于嵌入式处理平台的图像处理算法的基础上,提出了利用置信区间和数学期望降低微光视频噪声的算法。3.研究了TMS320DM6446双核系统架构和使用规则,并在此基础上设计和实现了本系统的软件硬件架构及算法。包括TI嵌入式系统ARM、DSP、xDM算法规范,如CodecEngine、CodecServer、DSP Agorithem等;根据微光实时视频处理的要求及达芬奇平台的特点,合理的设计软硬架构,并实现了该架构,组成了实际的开发系统;设计并实现了DSP端算法,包括微光视频的采集模块、处理模块和显示模块。4.研究了TMS320DM6446系统算法优化的方法。为提高算法的运行效率,我们使用了内联函数、除法变乘法、循环展开、线性汇编、存储器对齐、DMA数据传输等优化方法,达到了微光视频处理的实时性在上述研究的基础上,我们在达芬奇平台TMS320DM6446上实现了微光视频采集、增强、降噪、显示功能,达到了预期的结果,基本满足了实时性的要求。
李露曦[5](2009)在《微光与红外视频融合系统的图像处理器研究》文中指出图像融合技术作为多传感器信息融合技术的一个非常重要的分支,近年来引起了世界范围的研究热潮。其中,微光与红外图像融合是近年来夜视图像领域研究的热点。现代战争中,在光线微弱的情况下,能否更远和更好地发现对方,是决定战争胜负的重要因素之一。微光夜视仪的输出图像质量较好、分辨率高,但存在着受环境条件影响大、图像层次不分明等缺点;而红外热像仪的输出图像对比度大、观察条件受环境影响小,但同时也存在着观察质量不高的缺点。如果可以将两种图像以某一算法进行融合的话,则可以充分发挥各自的优点,从而提高夜视系统的观测能力。本论文主要是围绕微光与红外视频融合系统的图像处理器的研究进行的。从基础理论入手,在介绍国内外融合系统发展概况的基础上,分析了微光图像和红外图像的来源和特点,介绍了几种常用的图像预处理方法、融合算法和图像评估方法,为系统设计提供了理论指导。使用MATLAB仿真,选择了合适的算法应用于图像融合系统。采用TI公司的TMS320DM642芯片设计研发了融合系统,简单介绍了硬件部分的各个模块,包括:前端视频采集设备、图像融合处理板和输出显示设备等。详细阐述了利用CCS2软件对研发的融合板进行的软件测试,包括对DSP、SDRAM、FLASH、串口、视频口等的功能测试,完成了FLASH的烧写。在图像融合预处理中进行了图像增强处理,采用简化的仿射变换的方法进行图像配准,利用加权平均的算法进行图像融合,通过DSP/BIOS的程序框架的构建,解决了系统的多线程问题,使输出图像达到实时的要求,使融合程序可以在融合板上正常运行。最后进行室内、室外多次实时的图像融合处理实验,取得了令人满意的融合效果。
付玉[6](2008)在《基于达芬奇平台的微光视频实时处理系统的研究与实现》文中进行了进一步梳理随着多媒体技术的发展,微光夜视技术在军事和民用方面都有重大发展和广泛应用,将嵌入式技术与微光视频实时处理技术相结合,在军事和民用上具有很大的理论意义和实用价值,也是当前国内外非常关注的重要课题。现在嵌入式视频应用领域对处理芯片的要求主要是:具备强大的运算能力和灵活的系统整合能力。而DSP、FPGA、ASIC以及通用处理器(如ARM)等基于单核的处理芯片,在运算能力和控制功能等方面都难以满足要求。本文采用的德州仪器公司的TMS320DM6446平台,内部集成ARM和DSP双内核,具有高性能、低功耗等特点,能同时满足运算能力和控制功能两方面的要求。本文在对达芬奇平台TMS320DM6446软硬件架构进行深入分析和研究基础上,针对微光视频的特征,提出一种适用于嵌入式平台的微光夜视图像增强算法,设计并实现了基于TMS320DM6446平台的微光视频实时处理系统。论文的主要工作包括:1.研究了基于嵌入式处理平台的微光图像处理技术,在分析基于单核的处理芯片在各种不同的应用场合中的优缺点的基础上,讨论本课题采用的TMS320DM6446平台的特点和优势;2.从四个方而研究和分析TI公司的达芬奇平台的软硬件架构:ARM-DSP集成的特性、存储器的分配、交换中心资源和软件开发具体步骤;3.提出了微光视频实时处理系统的图像增强的总体技术方案,主要从两方面进行研究:微光图像处理技术和嵌入式处理平台;4.结合达芬奇平台的特点,设计并实现微光视频的实时采集模块和实时显示模块;5.通过分析视频采样格式,结合微光图像R、G、B三个通道的特点,提出了一种利用Y通道、U通道和V通道计算新的拟合分量的算法,并利用该拟合分量进行增强和去噪,达到实时增强的要求。测试结果表明:在达芬奇平台TMS320DM6446上实现微光视频采集、增强和去噪、显示,达到了预期的结果。
韩飞[7](2008)在《基于DSP的视频图像处理系统软件研究》文中指出微光视频处理系统在现代军事和民用方面都具有重要的价值。以高速DSP器件为核心处理技术,能有效的改善低光照条件下图像的成像质量,是当前视频图像处理系统研究的一个重要方向。论文结合近年高速信号处理器的发展现状,以及各种视频图像处理开发系统,介绍了微光图像处理技术的发展状况。在对基于高速数字信号处理器的微光视频图像处理器的硬件实现方案研究的基础上,重点对系统软件进行了研究和设计。主要对系统的总体方案与框架结构进行了设计与实现。内容还包括利用混合编程的方式实现中断处理,上电引导。并利用视频图像处理库来实现各种图像处理算法。在深入理解DSP/BIOS实时操作内核后,完成对视频处理的驱动开发。最后深入的对微光图像的噪声进行有效分析,对图像处理算法设计在高速图像处理器上的软件实现,做了相关的实验研究。通过对开发系统平台上获取的图像表明,系统总体技术方案可行,能够有效的进行视频的采集、处理、显示,对处理后的图像能基本达到了预期的目的。
刘生贵[8](2006)在《视频图像处理器系统软件研究》文中认为以高速DSP器件为核心的微光视频处理系统在军用及民用上具有重要的价值,是当前夜视技术研究的一个重要方向。 论文介绍了微光图像处理技术的发展状况,结合高速数字信号处理器的发展历史,在对基于高速数字信号处理器的微光视频图像处理器的硬件实现方案研究的基础上,重点进行了系统软件的研究与设计。主要对系统软件的总体方案与框架结构进行设计实现,内容包括利用通用串行口模拟I2C通讯实现输入/输出模块的设计,提出乒乓缓冲结构来解决数据的速度匹配问题,利用可编程逻辑器设计完成逻辑切换控制功能,利用DMA并行传输方式并设计双缓冲结构提高数据的传输速度,设计自引导程序来实现系统程序自加载,最后深入探讨了微光视频图像的特征说明了几种典型的微光图像处理算法的原理,参考这些处理算法设计能在高速视频图像处理器上实现的软件方法,并做了一部分相关的实验研究。
喻春雨[9](2006)在《新型X光影像探测器及成像系统研究》文中研究表明在过去的一个世纪里,X射线成像技术经历了胶片—增感屏成像技术、影像增强器成像技术、计算机X射线成像技术、平板探测器成像技术和计算机层析扫描技术的历史发展过程,它在医学、检测和工业探伤等方面是功不可没的。 在实时数字化的平片成像方面,国外近年来推出平板探测器成像技术,它具有视野大、成像性能好的优点,但是其价格昂贵,我国很少进口;我国较多进口法国和日本的X射线影像增强器来组装医用X射线成像机。它的价格也较高,成像视野不易制得很大,而且任一部分出现问题会使整管报废。因此,需要研制一种大视野、高质量、低成本的X射线影像探测器。 基于我国对一种新型X射线影像探测器的需求和南京市科技局的《用于防恐安检的12″新型X射线影像增强器的研制》项目和江苏省科技厅的《具有可移动数字化X射线成像机》项目,本文设计了新型的X射线影像探测器并研制了X射线成像系统,其研究的主要内容如下: 第一章主要介绍了X射线成像技术的原理及发展背景和本文研究的背景及意义。 第二章详细介绍了本文X射线成像系统的设计思想和系统组成及设计理论。设计的重点是新型X射线影像探测器。建立了分辨率数学模型并对新型X射线影像探测器成像性能进行了理论分析;研究了探测器的组成器件之间的光谱匹配情况,对有效的利用光能起到重要的指导作用,从而提高图像质量;提出了X射线成像系统视频接收器件的分辨率所应达到的标准,以保证图像不失真地输出终端。 第三章对本文设计的X射线成像系统的成像性能从图像对比度、分辨率、噪声三个方面进行了分析,分析的重点是图像分辨率。首先应用第二章建立的分辨率模型对系统的总分辨率进行了理论分析,找到了限制系统分辨率的瓶颈所在,并给出了解决的方法;应用调制传递函数对系统的成像性能进行了分析,并求得了系统调制传递函数曲线,分析结果和利用分辨率模型求得的结果相符;利用图像最佳放大倍数对系统的成像条件进行了分析,并结合变焦镜头,最大限度地降低几何模糊度,从而提高系统分辨率。 第四章应用数字图像处理知识并结合本文图像的特点,讨论了有效改善图像质量的方法,有助于做好图像的后处理工作。 第五章介绍了实时图像处理器的硬件设计和图像处理模块的设计。 第六章介绍了本文设计的机场足部安检X射线成像系统,并将其与军区医院的X射线成像系统在组成、成像性能、视野和价格等方面进行了详细的比较。结果说明:设计的成像系统性价比远远高于军区医院的成像系统,并满足大视野成像要求,成像质量达到透视检测标准。
樊晓燕[10](2005)在《微光图像实时处理器硬件实现的关键技术和算法研究》文中研究表明微光夜视系统在军事和民用方面都有重要用途,将高速数字信号处理技术用于微光视频图像的实时处理,是当前国内外非常关注的夜视技术领域中的重要课题。 论文在广泛调查了国内外微光图像处理技术发展状况的基础上,对微光视频图像的特点以及一些适合于DSP系统实现的图像去噪和增强处理算法进行了分析研究,并在此基础上,改进得到了阈值局部线性拉伸图像处理算法;参与了整个系统方案的论证与制定,重点对微光图像实时处理器硬件实现关键技术进行了研究,主要包括:视频图像输入与输出模块设计、数字化视频图像压缩解压缩和存储模块设计以及DSP芯片与输入输出模块之间的缓冲结构设计;结合高速电路的特点,设计完成了具备视频图像采集、输出、压缩解压缩以及存储等功能的视频压缩存储板,并编写了部分相应的控制软件;最后在DSP/BIOS嵌入式操作系统上,完成了系统关键部分的软件编写,实现了几种图像去噪和增强处理算法,并获得了初步的图像处理效果。 目前,微光实时图像处理器已经取得了阶段性成果,可以较稳定地实现灰度视频图像和彩色视频图像的采集、输出、压缩解压缩、存储以及简单的图像处理等功能。
二、DSP小型微光数字图像处理器关键技术研究(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、DSP小型微光数字图像处理器关键技术研究(论文提纲范文)
(1)基于DSP的红外车辆目标识别与跟踪系统设计(论文提纲范文)
摘要 |
ABSTRACT |
符号对照表 |
缩略语对照表 |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 目标识别与跟踪算法现状 |
1.2.2 图像处理平台硬件现状 |
1.3 论文的主要工作及安排 |
第二章 系统总体技术方案 |
2.1 基础知识 |
2.2 系统需求分析 |
2.3 系统组成 |
2.4 系统工作流程设计 |
2.5 系统核心功能单元设计 |
2.6 本章小结 |
第三章 硬件设计与实现 |
3.1 引言 |
3.2 视频采集模块设计 |
3.2.1 视频采集电路设计 |
3.2.2 视频采集模块驱动设计 |
3.3 视频输出模块设计 |
3.3.1 视频输出电路设计 |
3.3.2 视频输出模块驱动设计 |
3.4 处理器核心模块设计 |
3.4.1 EPPI接口电路 |
3.4.2 DDR模块电路设计 |
3.4.3 JTAG模块设计 |
3.4.4 系统启动模块电路设计 |
3.4.5 程序存储模块电路设计 |
3.5 本章小结 |
第四章 系统软件设计 |
4.1 处理器软件设计 |
4.1.1 DMA设计 |
4.1.2 视频采集和输出接口软件设计 |
4.1.3 乒乓缓存软件设计 |
4.2 图像处理算法设计 |
4.2.1 红外图像预处理算法 |
4.2.2 目标识别算法 |
4.2.3 目标跟踪算法 |
4.3 图像处理的优化设计 |
4.4 本章小结 |
第五章 系统测试 |
5.1 测试环境介绍 |
5.2 系统硬件测试 |
5.3 系统测试 |
5.4 本章小结 |
第六章 总结与展望 |
6.1 本文完成的工作 |
6.2 未来工作的展望 |
参考文献 |
致谢 |
作者简介 |
(2)复杂背景下反无人机的智能光电搜索跟踪技术研究(论文提纲范文)
摘要 |
abstract |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.2.1 反无人机系统国内外研究现状 |
1.2.2 目标探测跟踪领域国内外研究现状 |
1.3 当前光电跟踪装备及目标搜索跟踪技术中存在的问题 |
1.4 研究难点 |
1.5 论文主要研究内容 |
第二章 目标成像特点及基本跟踪设计理论 |
2.1 引言 |
2.2 “低慢小”目标在复杂背景下的成像特点 |
2.2.1 光谱特征 |
2.2.2 颜色特征 |
2.2.3 偏振特性 |
2.2.4 三维特征 |
2.2.5 运动特征 |
2.3 基于多光谱探测的光学载荷设计 |
2.4 光电跟踪基本伺服跟踪理论 |
2.4.1 基本控制原理 |
2.4.2 复合前馈控制 |
2.4.3 目标跟踪及轨迹预测 |
2.4.4 动载体情况下的陀螺稳像控制 |
2.5 基于复杂背景的基本图像跟踪理论 |
2.6 本章小结 |
第三章 改进的多模TLD目标跟踪算法 |
3.1 引言 |
3.2 TLD算法的主要模块 |
3.2.1 跟踪器 |
3.2.2 检测器 |
3.2.3 整合器 |
3.2.4 P-N学习模块 |
3.3 KCF算法简介 |
3.3.1 构造样本 |
3.3.2 训练分类器 |
3.3.3 目标检测 |
3.3.4 分类器的更新 |
3.4 多模复合TLD目标跟踪算法 |
3.4.1 TLD算法中改进的多特征融合目标跟踪器 |
3.4.2 改进的多模复合TLD算法 |
3.4.3 仿真 |
3.5 本章小结 |
第四章 基于神经网络的IMM卡尔曼滤波前馈补偿伺服控制算法 |
4.1 引言 |
4.2 伺服系统构成及工作原理 |
4.3 基于神经网络的IMM卡尔曼滤波复合控制器 |
4.4 用于估计模型最优参数的神经网络参数训练器 |
4.5 仿真分析 |
4.6 本章小结 |
第五章 抗长时遮挡的联合IMM卡尔曼滤波-TLD目标跟踪算法 |
5.1 引言 |
5.2 基本原理 |
5.3 目标遮挡时对可能出现区域的概率估计 |
5.4 仿真分析 |
5.5 多机联合IMM卡尔曼滤波-TLD目标跟踪 |
5.6 基于抗长时遮挡IMM卡尔曼滤波器轨迹预估的延伸功能 |
5.7 本章小结 |
第六章 硬件设计与实现 |
6.1 引言 |
6.2 智能光电搜索跟踪系统构成和工作原理 |
6.3 光学系统设计 |
6.4 搜索跟踪系统的伺服控制模块设计 |
6.4.1 伺服控制系统设计要点 |
6.4.2 伺服控制系统总体构架 |
6.4.3 伺服控制电控设计 |
6.5 时序控制模块设计 |
6.6 GPU图像处理平台设计 |
6.7 关键技术 |
6.8 本章小结 |
第七章 智能光电搜索跟踪系统试验分析 |
7.1 引言 |
7.2 IMM卡尔曼滤波前馈补偿控制跟踪精度试验 |
7.3 多模复合TLD目标跟踪试验 |
7.4 抗长时遮挡IMM卡尔曼滤波-TLD目标跟踪试验 |
7.5 本章小结 |
第八章 工作总结与展望 |
8.1 总结 |
8.2 展望 |
参考文献 |
致谢 |
作者简历及攻读学位期间发表的学术论文与研究成果 |
(3)微光/热红外图像色彩传递及多尺度分解融合算法研究(论文提纲范文)
摘要 |
abstract |
第1章 绪论 |
1.1 研究背景与意义 |
1.2 图像融合算法研究现状 |
1.2.1 灰度图像融合算法研究现状 |
1.2.2 彩色图像融合算法研究现状 |
1.3 图像融合系统发展及应用现状 |
1.3.1 国外图像融合系统发展及应用现状 |
1.3.2 国内图像融合系统发展及应用现状 |
1.4 当前研究中存在的问题与难点 |
1.5 论文主要内容及章节安排 |
第2章 颜色空间与色彩传递彩色融合算法基础 |
2.1 颜色空间 |
2.1.1 RGB颜色空间 |
2.1.2 lαβ颜色空间 |
2.1.3 YUV颜色空间 |
2.1.4 Kekre's LUV颜色空间 |
2.2 基于色彩传递的双波段自然感彩色融合 |
2.2.1 初始彩色化 |
2.2.2 色彩传递 |
2.3 图像客观质量评价指标 |
2.3.1 常用图像质量评价指标 |
2.3.2 融合图像相关的质量评价指标 |
2.4 本章小结 |
第3章 基于GDGF的微光视频图像降噪与红外图像细节增强 |
3.1 引导滤波与梯度域引导滤波 |
3.1.1 引导滤波 |
3.1.2 梯度域引导滤波 |
3.2 微光视频图像自适应降噪(GDGF-AD)算法 |
3.2.1 运动区域检测 |
3.2.2 基于统计特性的噪声强度估计 |
3.2.3 基于GDGF的自适应降噪方法 |
3.2.4 算法处理结果及分析 |
3.3 热红外图像细节增强处理 |
3.3.1 基于GF的热红外图像细节增强 |
3.3.2 基于GDGF的热红外图像细节增强 |
3.3.3 改进的效果及分析 |
3.4 本章小结 |
第4章 基于YUV空间色彩传递的图像融合算法研究 |
4.1 基于YUV空间色彩传递的双波段灰度图像融合算法 |
4.1.1 基于色彩传递的灰度图像融合 |
4.1.2 算法处理结果及分析 |
4.2 低照度夜视图像自然感彩色化及增强(LSCT)算法 |
4.2.1 灰度图像的彩色化处理 |
4.2.2 亮度增强 |
4.2.3 算法处理结果及分析 |
4.3 本章小结 |
第5章 基于GDGF的多尺度灰度图像融合算法 |
5.1 基于GDGF的图像混合多尺度分解结构 |
5.2 基于GDGF的多尺度图像融合(HMSD-GDGF)算法 |
5.2.1 小尺度细节图像融合规则 |
5.2.2 大尺度细节图像融合规则 |
5.2.3 基图像融合规则 |
5.2.4 算法处理结果及分析 |
5.3 基于微光和红外图像融合的夜视效果增强(FNCE)算法 |
5.3.1 红外图像的增强处理 |
5.3.2 低照度可见光(微光)图像的增强处理 |
5.3.3 融合处理 |
5.3.4 算法处理结果及分析 |
5.4 本章小结 |
第6章 微光/热红外图像融合系统及目标探测/识别实验 |
6.1 便携式微光/热红外图像融合实验系统 |
6.1.1 融合夜视实验系统的组成概述 |
6.1.2 系统功能及技术指标 |
6.1.3 系统关键组件 |
6.1.4 图像处理算法 |
6.1.5 系统作用距离分析 |
6.1.6 系统实现情况 |
6.2 基于便携式融合实验系统的目标探测/识别主观评价实验 |
6.2.1 实验条件 |
6.2.2 观察者 |
6.2.3 实验过程 |
6.3 目标探测/识别实验的结果及分析 |
6.3.1 目标探测/识别率分析 |
6.3.2 不同观察距离的目标探测/识别分析 |
6.3.3 不同场景的目标探测/识别分析 |
6.3.4 相关讨论 |
6.4 本章小结 |
总结与展望 |
主要研究工作内容 |
论文创新性成果 |
未来研究工作展望 |
参考文献 |
英文缩略语附录 |
攻读学位期间发表论文与研究成果清单 |
致谢 |
作者简介 |
(4)基于达芬奇平台的微光视频实时处理系统关键技术的研究与实现(论文提纲范文)
致谢 |
摘要 |
ABSTRACT |
1 绪论 |
1.1 引言 |
1.2 国内外研究现状 |
1.2.1 微光成像技术的国内外研究现状 |
1.2.2 微光处理算法的国内外研究现状 |
1.2.3 DSP技术的国内外研究现状 |
1.2.4 微光视频处理台的国内外研究现状 |
1.3 论文的主要内容及创新点 |
1.3.1 论文的主要内容 |
1.3.2 论文的创新点 |
1.4 论文的组织结构 |
2 微光成像技术及处理算法的分析与研究 |
2.1 微光成像技术的特征分析 |
2.1.1 微光视频的特点 |
2.1.2 微光视频增强降噪的必要性和可能性 |
2.2 微光图像增强方法及分析 |
2.2.1 直方图均衡化 |
2.2.2 阈值线性拉伸 |
2.2.3 小波变换 |
2.3 微光图像降噪方法与分析 |
2.3.1 中值滤波 |
2.3.2 高斯平滑 |
2.3.3 帧间积分 |
2.4 本章小节 |
3 微光视频实时处理平台的选择和研究 |
3.1 微光视频实时处理平台的选择 |
3.1.1 微光视频处理平台的简介 |
3.1.2 达芬奇平台和技术简介 |
3.1.3 微光视频实时处理平台的选择 |
3.2 微光视频实时处理系统的硬件研究 |
3.2.1 微光视频实时处理系统的硬件结构研究 |
3.2.2 微光视频实时处理系统的硬件选择 |
3.3 微光视频实时处理系统的软件研究 |
3.3.1 微光视频实时处理系统图像采集模块的研究 |
3.3.2 微光视频实时处理系统图像处理模块的研究 |
3.3.3 微光视频实时处理系统图像显示模块的研究 |
3.4 本章小结 |
4 基于置信区间和数学期望的微光视频降噪算法 |
4.1 基于置信区间和数学期望降噪算法的数学原理 |
4.1.1 数理统计中的样本、数学期望与方差 |
4.1.2 正态分布及其置信区间 |
4.1.3 置信区间与置信水平、样本量的关系 |
4.2 基于置信区间和数学期望的微光视频降噪算法 |
4.2.1 用置信区间确定微光图像中的噪声 |
4.2.2 用数学期望弱化微光图像中的噪声及分析 |
4.3 基于DAVINCI平台的算法实现过程 |
4.3.1 微光图像的分解拟合 |
4.3.2 微光图像增强处理 |
4.3.3 微光图像降噪处理 |
4.4 本章小结 |
5 基于TMS32ODM6446微光视频实时处理系统实现 |
5.1 微光视频采集模块的实现 |
5.2 微光视频处理模块的实现 |
5.2.1 ARM端算法的实现 |
5.2.2 DSP端算法的实现 |
5.2.3 ARM与DSP间算法的相互调用 |
5.3 微光视频显示模块实现 |
5.4 实验结果及分析 |
5.5 本章小结 |
6 结论 |
6.1 工作总结 |
6.2 工作展望 |
参考文献 |
附录 |
附录A 开发环境的建立 |
1 开发工具介绍 |
2 开发环境的建立 |
附录B 存储映射表 |
作者简历 |
学位论文数据集 |
(5)微光与红外视频融合系统的图像处理器研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 图像融合的基本概念 |
1.2 图像融合在国内外的发展趋势 |
1.3 本论文的研究背景和意义 |
1.4 本论文的主要工作 |
2 微光与红外图像融合的基础理论 |
2.1 微光与红外图像的特点 |
2.1.1 微光图像的特点 |
2.1.2 红外图像的特点 |
2.1.3 微光与红外图像的比较 |
2.2 图像预处理 |
2.2.1 图像增强 |
2.2.2 图像配准 |
2.3 微光与红外图像的融合算法 |
2.3.1 简单的图像融合方法 |
2.3.2 基于金字塔分解的图像融合算法 |
2.3.3 基于小波变换的图像融合算法 |
2.3.4 融合算法的仿真结果 |
2.4 融合结果的评价方法 |
2.4.1 主观评价方法 |
2.4.2 客观评价方法 |
2.4.3 对各种融合算法结果的主客观评价 |
3 微光与红外图像融合系统的硬件设计 |
3.1 图像融合系统的总体结构 |
3.2 图像融合系统的前端设备 |
3.3 图像融合系统的图像处理器 |
3.4 图像融合系统的其他设备 |
4 基于TMS320DM642的微光与红外图像融合处理器的软件设计 |
4.1 CCS2集成开发环境 |
4.2 图像融合处理板的软件测试 |
4.2.1 DSP的软件测试与运行 |
4.2.2 SDRAM的软件测试与运行 |
4.2.3 串口的软件测试与运行 |
4.2.4 FLASH的软件测试与烧写 |
4.2.5 视频口的软件测试与运行 |
4.3 配准和融合算法的实现 |
4.3.1 图像的灰度拉伸 |
4.3.2 图像的配准和融合 |
4.4 多线程问题的解决 |
4.4.1 DSP/BIOS的使用 |
4.4.2 多线程问题的解决方法 |
5 图像融合系统的评估实验 |
5.1 微光与红外图像融合系统的评估实验 |
5.1.1 微光与红外图像融合系统室内实验 |
5.1.2 微光与红外图像融合系统室外实验 |
5.2 图像融合系统的评估实验结论 |
6 结束语 |
6.1 本论文工作的总结 |
6.2 本论文的创新点 |
6.3 下一步工作的展望 |
致谢 |
参考文献 |
(6)基于达芬奇平台的微光视频实时处理系统的研究与实现(论文提纲范文)
致谢 |
中文摘要 |
ABSTRACT |
1 绪论 |
1.1 引言 |
1.2 国内外研究现状 |
1.2.1 国外研究现状 |
1.2.2 国内发展现状 |
1.3 论文主要内容及创新点 |
1.3.1 主要内容 |
1.3.2 主要特色及创新点 |
1.4 论文的组织结构 |
2 TMS320DM6446的视频处理平台的研究与分析 |
2.1 达芬奇技术概述 |
2.2 TMS320DM6446的硬件架构 |
2.2.1 视频处理平台的内核结构 |
2.2.2 视频处理平台的接口描述 |
2.2.3 ARM-DSP集成 |
2.2.4 DMSoC存储器映射 |
2.2.5 DMSoC交换中心资源 |
2.3 TMS320DM6446的软件架构 |
2.4 本文基于达芬奇平台的软件开发步骤 |
2.5 本章小结 |
3 微光图像处理技术的研究与分析 |
3.1 微光图像的特征分析 |
3.2 微光视频噪声的特点 |
3.3 微光视频增强的必要性及可能性 |
3.4 论文采用的微光图像增强方法及分析 |
3.4.1 直方图均衡化 |
3.4.2 高斯平滑 |
3.4.3 微光图像增强的总体技术方案 |
3.5 本章小结 |
4 基于TMS320DM6446微光视频实时处理系统的设计 |
4.1 系统的总体设计 |
4.1.1 系统的硬件组成及相关参数 |
4.1.2 系统总体流程 |
4.2 微光视频实时处理系统的分析与设计 |
4.2.1 微光视频图像的采集和量化分析与设计 |
4.2.2 基于TMS320DM6446微光图像处理功能的设计 |
4.2.3 微光视频显示功能的设计 |
4.2.4 双核通信机制和编解码引擎的分析与实现 |
4.2.5 乒乓缓冲技术和线程交互的设计与实现 |
4.3 本章小结 |
5 基于TMS320DM6446微光视频实时处理系统的实现 |
5.1 软硬件开发环境的建立 |
5.1.1 软硬件开发工具 |
5.1.2 开发环境建立 |
5.2 微光视频实时处理系统模块设计 |
5.3 微光视频采集模块的实现 |
5.4 图像处理模块的实现 |
5.5 微光视频显示模块实现 |
5.6 本章小节 |
6 微光视频实时处理系统的环境组建与测试 |
6.1 系统测试环境的组建 |
6.2 系统测试的步骤 |
6.3 系统测试结果及分析 |
6.3.1 测试结果及分析 |
6.3.2 影响结果的因素 |
6.4 本章小结 |
7 总结 |
7.1 工作总结 |
7.2 进一步的研究建议 |
参考文献 |
附录 |
作者简历 |
学位论文数据集 |
(7)基于DSP的视频图像处理系统软件研究(论文提纲范文)
摘要 |
Abstract |
1 绪论 |
1.1 课题研究背景 |
1.2 视频图像处理系统的最新发展情况 |
1.3 课题背景下的主要研究内容 |
2 视频图像处理硬件平台设计 |
2.1 视频图像处理原理 |
2.2 视频图像处理器设计基本思路 |
2.3 视频图像处理器的器件选择 |
2.4 本章小结 |
3 DSP平台上的图像处理程序 |
3.1 集成开发环境CCS简介 |
3.2 DSP芯片的内部架构 |
3.2.1 TMS320C62X内核 |
3.2.2 TMS320C6000集成外设 |
3.3 DSP软件编程流程 |
3.4 系统软件的模块化设计 |
3.4.1 上电引导模块 |
3.4.2 中断处理模块 |
3.4.3 图像处理模块 |
3.5 本章小结 |
4 基于DSP/BIOS图像处理程序的实现 |
4.1 DSP/BIOS实时操作内核 |
4.1.1 DSP/BIOS概述 |
4.1.2 DSP/BIOS的开发过程 |
4.2 系统程序参考框架 |
4.3 视频驱动程序设计 |
4.3.1 DSP/BIOS DDK简介 |
4.3.2 设备的驱动的开发模型 |
4.3.3 设备的驱动的开发实现 |
4.4 本章小结 |
5 微光视频图像处理算法与实现 |
5.1 图像噪声分析 |
5.1.1 噪声来源分析 |
5.1.2 图像噪声的估计方法及数学模型 |
5.2 滤波算法 |
5.3 边缘检测算法 |
5.4 算法实验结果 |
5.5 本章小结 |
结论 |
致谢 |
参考文献 |
(8)视频图像处理器系统软件研究(论文提纲范文)
摘要 |
Abstract |
目录 |
1 绪论 |
1.1 课题研究背景 |
1.2 微光视频图像处理系统发展情况 |
1.3 论文的主要研究内容 |
2 视频图像处理器的硬件平台研究 |
2.1 视频图像处理器设计基本思路 |
2.2 视频图像处理器的器件选择 |
2.3 视频图像处理器的关键技术说明 |
2.4 本章小结 |
3 基于TMS320 DSP编程研究 |
3.1 eXpressDSP概念 |
3.2 Code Composer Studio开发平台 |
3.3 DSP/BIOS |
3.4 TMS320 DSP算法标准 |
3.4.1 DSP算法标准概念及分级 |
3.4.2 基于DSP算法标准的通用软件结构 |
3.4.3 DSP算法标准的具体准则和建议 |
3.5 第三方合作网络 |
3.6 TMS320C6x DSP |
3.6.1 引言 |
3.6.2 C6x DSP结构及指令集 |
3.6.3 C6x DSP软件编程相关问题及开发流程 |
3.6.4 C6x DSP针对图像处理编程相关问题 |
3.7 本章小结 |
4 视频图像处理器系统软件设计 |
4.1 设计总述 |
4.2 视频输入输出模块处理 |
4.2.1 模拟视频标准及数字视频标准 |
4.2.2 多通道缓冲串行接口McBSP |
4.2.3 I~2C总线协议 |
4.2.4 应用McBSP模拟实现I~2C协议 |
4.2.5 小结 |
4.3 乒乓缓冲结构设计 |
4.3.1 引言 |
4.3.2 乒乓操作 |
4.3.3 乒乓缓冲结构 |
4.3.4 乒乓缓冲结构设计 |
4.3.5 小结 |
4.4 DSP对外部存储器操作 |
4.4.1 引言 |
4.4.2 EMIF对SDRAM的操作 |
4.4.3 EMIF对FLASH的操作 |
4.4.4 直接存储器访问DMA操作 |
4.5 DSP图像处理 |
4.6 本章小结 |
5 视频图像处理器系统调试说明 |
5.1 硬件调试 |
5.1.1 整体电路板调试 |
5.1.2 DSP硬件调试 |
5.1.3 CPLD硬件调试 |
5.1.4 输入/输出模块硬件调试 |
5.2 软件调试 |
5.3 系统调试的步骤 |
5.3.1 视频AD/DA调试 |
5.3.2 视频乒乓缓冲调试 |
5.3.3 图像算法调试 |
5.3.4 FLASH程序加载调试 |
5.3.5 系统综合调试 |
6 微光视频图像处理算法与实现 |
6.1 微光图像的特征分析 |
6.2 微光图像的去噪算法 |
6.2.1 多帧操作 |
6.2.2 滤波操作 |
6.3 微光图像的增强算法 |
6.3.1 线性变换和分段线性变换 |
6.3.2 直方图均衡化 |
6.4 算法处理实验及结论 |
6.4.1 图像去噪部分算法结论分析研究 |
6.4.2 图像增强部分算法结论分析研究 |
6.5 本章小结 |
结论 |
致谢 |
硕士期间参与的科研项目 |
参考文献 |
(9)新型X光影像探测器及成像系统研究(论文提纲范文)
摘要 |
ABSTRACT |
1 绪论 |
1.1 X射线成像技术 |
1.1.1 X射线基本概念 |
1.1.2 X射线成像原理 |
1.1.3 X射线成像技术的发展与现状 |
1.2 本文研究的背景和意义 |
1.2.1 本文研究的背景 |
1.2.2 本文研究的应用价值 |
1.2.3 与本文有关的项目 |
1.2.4 本文研究的设计方案 |
1.3 本文研究的主要工作 |
2 X射线成像系统的组成及设计理论 |
2.1 X射线源 |
2.1.1 球管中的焦距 |
2.1.2 球管的阳极特性和灯丝加热特性 |
2.2 X射线滤线栅 |
2.3 新型 X射线影像探测器 |
2.3.1 传统X射线影像增强器 |
2.3.2 新型X射线影像探测器结构组成 |
2.3.3 光谱兼容性分析 |
2.3.4 X射线影像探测器分辨率数学模型及理论值 |
2.3.5 距离平方反比定律的应用 |
2.4 视频采集及显示装置 |
2.4.1 视频采集:装置-CCD摄像机 |
2.4.2 显示器解析率要求 |
2.5 X射线成像系统操控制台 |
2.6 脚踏开关的红外线联动控制 |
2.7 实时图像处理器 |
2.8 本章小结 |
3 X射线成像系统成像性能研究 |
3.1 图像对比度 |
3.2 系统分辨率研究 |
3.2.1 图像模糊的主要原因 |
3.2.2 系统分辨率理论分析 |
3.2.3 系统调制传递函数 |
3.2.4 最佳放大倍数 |
3.3 X射线成像系统噪声分析 |
3.3.1 微光像增强器的噪声 |
3.3.2 CCD摄像机噪声 |
3.3.3 X光图像的量子理论分析 |
3.4 本章小结 |
4 数字图像处理 |
4.1 计算机数字图像处理 |
4.1.1 视频信号的采样 |
4.1.2 模拟采样信号的A/D转换 |
4.2 实时图像处理器 |
4.3 图像处理算法 |
4.3.1 背景均一去本底噪声 |
4.3.2 多帧累加去随机噪声 |
4.3.3 图像对比度增强 |
4.4 本章小结 |
5 实时图像处理器系统的硬件设计 |
5.1 X光实时图像处理器的原理及设计思想 |
5.1.1 X光图像处理器的原理框图 |
5.1.2 X光图像处理器的设计思想 |
5.2 图像处理流程 |
5.3 实时图像处理器的硬件设计 |
5.3.1 图像处理器的核心-FPGA的设计 |
5.3.2 DSP引导加载的设计 |
5.3.3 CPLD的设计 |
5.4 图像处理器的软件实现 |
5.4.1 FPGA功能模块的设计 |
5.4.2 DSP的软件实现 |
5.5 本章小结 |
6 机场足部安检X射线成像系统 |
6.1 成像系统组成及工作原理 |
6.2 系统成像性能 |
7 结束语 |
7.1 本文的工作总结 |
7.2 本文的创新点 |
7.3 有待进一步研究的问题和发展建议 |
致谢 |
参考文献 |
发表论文情况 |
获奖情况 |
(10)微光图像实时处理器硬件实现的关键技术和算法研究(论文提纲范文)
摘要 |
Abstract |
目录 |
1 绪论 |
1.1 课题研究背景 |
1.2 微光视频图像实时处理技术的国内外发展状况 |
1.2.1 国外发展状况 |
1.2.2 国内发展状况 |
1.3 论文的主要研究内容 |
2 微光图像的特征分析及算法研究 |
2.1 微光图像特征分析 |
2.1.1 概述 |
2.1.2 微光图像特征分析 |
2.1.3 微光图像噪声表现特征 |
2.2 微光图像处理算法研究 |
2.2.1 微光图像的去噪处理 |
2.2.2 图像增强处理 |
2.3 本章小结 |
3 微光图像实时处理器的系统总体设计概述 |
3.1 微光图像实时处理器的功能说明 |
3.2 微光图像实时处理器的原理方案 |
3.3 本章小结 |
4 微光图像处理器硬件实现的关键技术 |
4.1 视频信号的标准 |
4.1.1 模拟视频标准 |
4.1.2 模拟视频数字化标准 |
4.2 视频压缩存储板硬件设计 |
4.2.1 视频输入、输出模块设计 |
4.2.2 数字视频压缩、解压缩模块设计 |
4.2.3 数字视频数据存储模块设计 |
4.2.4 系统管理单元 |
4.3 数字视频处理板硬件实现关键技术 |
4.3.1 TMS320C6204芯片简介 |
4.3.2 TMS320C6204的硬件结构 |
4.3.3 数字视频处理模块概述 |
4.3.4 TMS320C6204与视频输入输出模块间的缓冲单元设计 |
4.4 高速电路PCB板设计 |
4.4.1 高速电路设计中应重视问题的分析 |
4.4.2 模拟、数字混合信号设计 |
4.4.3 电路板分层设计 |
4.4.4 电路PCB板设计结果 |
4.5 本章小结 |
5 图像采集处理程序概述 |
5.1 实验平台简介 |
5.1.1 实验硬件平台 |
5.1.2 DSP软件开发平台CCS |
5.2 DSP/BIOS在软件设计中的应用 |
5.2.1 DSP/BIOS简介 |
5.2.2 基于DSP/BIOS的图像采集处理程序设计 |
5.3 本章小结 |
6 算法实验及结论 |
6.1 微光图像去噪算法实验结果及结论 |
6.1.1 算法实验部分程序及实验结果 |
6.1.2 结论 |
6.2 微光图像增强算法实验结果及结论 |
6.2.1 算法实验部分程序及实验结果 |
6.2.2 结论 |
6.3 本章小结 |
结论 |
致谢 |
硕士期间参与的科研项目 |
参考文献 |
四、DSP小型微光数字图像处理器关键技术研究(论文参考文献)
- [1]基于DSP的红外车辆目标识别与跟踪系统设计[D]. 李大珍. 西安电子科技大学, 2020(05)
- [2]复杂背景下反无人机的智能光电搜索跟踪技术研究[D]. 林俤. 中国科学院大学(中国科学院西安光学精密机械研究所), 2020(06)
- [3]微光/热红外图像色彩传递及多尺度分解融合算法研究[D]. 朱进. 北京理工大学, 2018(06)
- [4]基于达芬奇平台的微光视频实时处理系统关键技术的研究与实现[D]. 李希国. 北京交通大学, 2009(06)
- [5]微光与红外视频融合系统的图像处理器研究[D]. 李露曦. 南京理工大学, 2009(01)
- [6]基于达芬奇平台的微光视频实时处理系统的研究与实现[D]. 付玉. 北京交通大学, 2008(08)
- [7]基于DSP的视频图像处理系统软件研究[D]. 韩飞. 南京理工大学, 2008(11)
- [8]视频图像处理器系统软件研究[D]. 刘生贵. 南京理工大学, 2006(01)
- [9]新型X光影像探测器及成像系统研究[D]. 喻春雨. 南京理工大学, 2006(01)
- [10]微光图像实时处理器硬件实现的关键技术和算法研究[D]. 樊晓燕. 南京理工大学, 2005(07)