一种对光照变化具有鲁棒性的彩色物体检测方法

一种对光照变化具有鲁棒性的彩色物体检测方法

一、一种对光照变化鲁棒性的彩色目标检测方法(论文文献综述)

金静[1](2020)在《复杂视频场景下的运动目标检测与跟踪研究》文中认为在智能视频分析系统中,运动目标的检测与跟踪是一个基础核心的环节,其性能直接关系到后续动作识别、行为理解等高级语义处理的精确性。由于视频监控场景的复杂性、各种干扰因素的多发性、并发性等特点,研究高精度、低耗时以及强鲁棒性的运动目标检测与跟踪算法具有重要意义。本文利用机器学习和计算机视觉等相关理论,针对复杂视频场景中的运动目标检测与跟踪问题进行了深入研究。主要工作包括以下几个方面:(1)针对复杂视频监控场景中的光线变化与移动阴影造成运动目标的检测结果包含大量假阳性像素点的问题,首先对局部二值纹理模式(Local Binary Pattern,LBP)进行深入研究,并在此基础上提出了一种改进的局部纹理特征描述子。该特征描述子相比传统LBP有更强的噪声鲁棒性,并具备有灰度尺度不变性。将该纹理特征与颜色特征融合进行多维核密度估计,建立背景的概率模型。为了提高算法在多模态背景场景中的检测精度,在前景检测中结合像素的邻域相关性以抑制虚假前景。在标准检测数据集上的实验表明,与基于纹理直方图的算法相比,该方法能在光线缓慢变化和包含运动阴影的场景下综合性能提高17.5%;在各类场景下与其它性能突出的方法进行比较,该方法的平均检测性能提高了0.12%,而处理速度提高了50%。(2)传统颜色空间易受到环境干扰而产生失真,将颜色属性空间应用于运动目标检测中,提出一种基于区域颜色属性二阶矩直方图的背景建模方法。将RGB颜色空间映射到降维的、鲁棒的颜色属性空间,再引入像素的空间结构,在局部区域内建立基于颜色属性的二阶矩直方图,使用若干个不同权重的二阶矩直方图构建背景模型。在模型的匹配中,该方法兼顾特征的相似度和空间结构的相似度,从而提高了检测的精确度。降维的颜色属性提高了特征的鲁棒性和时效性,二阶矩直方图引入的像素位置信息提高了背景模型的准确性。检测时通过学习率来控制各模型直方图及其权重的更新,并且针对算法中涉及的参数进行了详细讨论,给出了可行的取值。实验结果表明,该方法在动态背景干扰场景中,相比其他检测方法其综合检测性能提高了近13%。同时,该方法在6类场景中的整体平均综合性能也是最优的,可达到75.18%。(3)针对统计模型背景建模算法将视频的各个帧和帧内像素视为独立不相关的个体、没有充分发掘高维数据的内在本质这一问题,本文对基于鲁棒主成分分析的运动目标检测算法进行研究,提出了一种基于自适应低秩稀疏分解的运行目标检测算法。首先用背景模型与待求解的帧向量构建增广矩阵,然后使用鲁棒的主成分分析算法对降维后的增广矩阵进行低秩稀疏分解,分离出的低秩部分和稀疏噪声分别对应于视频帧的背景和运动前景。最后,使用增量奇异值分解方法对背景模型迭代更新。实验证明,该方法在传统主成分分析中引入自适应的过程,可以提高模型的鲁棒性。在包含光线变化、多模态背景以及恶劣天气的三个复杂场景中,该方法的综合检测性能指标F1值分别提高了6%、8%和7%。自适应算法分批载入视频帧的方式有效降低了算法的延迟,在包含多模态背景扰动的复杂场景中,检测时间效率提高了19.3%。(4)针对粒子滤波跟踪算法的外观模型易受环境干扰、粒子重要性重采样中的粒子贫化和粒子退化问题,构建了基于多线索多特征的粒子滤波单目标跟踪算法。通过对传统灰度行程矩阵进行模糊聚类,得到了一种稳健的模糊统计纹理特征,将其与体现像素相关性的Histon直方图结合构建目标外观模型。针对粒子滤波中粒子易退化和贫化的问题,使用聚类算法得到自适应数量的高权值粒子,用这部分粒子来近似得到更为准确的目标状态估计。重要性重采样阶段,这部分高权值粒子得以保留,而其余粒子在估计的目标状态周围重新采样得到,有效克服粒子退化并保持了粒子的多样性。将本文方法与粒子滤波框架下性能突出的跟踪算法进行比较,其平均跟踪成功率和平均跟踪精度分别提高了4.4%和2.8%。与多个流行的、性能优越的跟踪算法进行比较,该方法在目标形变、光照变化和背景扰动三类场景下能得到最优的跟踪精度曲线和成功率曲线。

刘富强[2](2020)在《基于深度学习的三维工件识别关键技术研究》文中研究说明在制造业领域,对工业工件进行检测和识别是一项必不可少的技术。其中,工业领域中待处理的对象从二维表示逐渐过渡到了三维表示。传统的工件检测与识别采用基于几何特征的方法。在形状简单、图像清晰度高、以及场景相对简单(无遮挡、重叠等问题)的情况下能够达到很高的识别准确率和精度。然而,由于工件形状的复杂性、工件自身的低纹理性以及工件与环境之间的微小差异性,使得传统的图像处理方法和点云处理方法已经不能满足工业界的要求。因此,本文对基于深度学习的三维工件的检测与识别关键技术进行了研究。主要研究内容及创新点如下:(1)针对实际应用场景中二维工件图像尺度的多变性及位姿的多样性,提出了应用于打磨工件目标检测的二维卷积神经网络架构Polish Net-2d。在制造业领域,针对工业工件进行检测的稳定性、及精度还不是特别高的问题,为了增强网络的自学习尺度及位姿不变性,通过在骨干网络Res Net101中引入对工件目标的位姿变换具有自主学习功能的变换网络X-Net;基于具有不同尺度和位姿多样性的数据集,经过有无X-Net的对比性实验,结果表明Polish Net-2d的尺度及位姿不变性有所提升。其中,X-Net可以在训练集上对区域建议网络提取出的建议区域进行无监督的学习,提高了2d工件检测网络Polish Net-2d的检测率。本文从学习率、以及批大小等不同角度,基于单一工件数据集、以及多工件数据集等八个数据集,进行对比试验。实验结果表明,Polish Net-2d的全局收敛性具有很高的数据集鲁棒性。该网络旨在提高二维工业工件的检测率及稳定性,进而能够将该方法从工业领域走向实用向前推进一步;(2)针对三维工件点云的旋转角度多样性及尺度多样性,提出了应用于打磨工件点云识别的三维卷积神经网络架构Polish Net-3d。目前,三维点云识别是一个比较前沿的研究内容。相比于二维图像的检测率,三维点云数据的识别率还相对较低。该方法旨在提升工业领域中三维工件点云的识别率。该网络架构在骨干网络Point Net中引入对三维工件具有自主学习旋转参数的变换网络R-Net、以及层次特征提取网络Hierarchical Feature Extraction Network。同时,基于具有不同尺度和位姿多样性的三维工件点云数据集,进行了有无R-Net和HFEN的对比性实验。实验结果表明,在加入R-Net和HFEN后,网络测试平均分类精度有了明显的提升;(3)针对能直接用于训练深度神经网络的工业工件数据集种类和数量非常少的问题,以及用于训练深度神经网络的数据集标注费时的问题,本文提出了一种自动化构建深度学习数据集及其标注文件的方法。该方法可以极大地减少人工参与标注的时间,提高标注的效率,从而帮助一些深度学习领域的科研人员快速地生成自己领域的数据集。首先,基于理论工件模型、真实环境背景的数据、单独工件实际采集的数据,依据光照变换和多视角多源图像融合算法,构建了多视角理论工件、理论工件模型—真实环境背景、和单独实际工件—真实环境背景三种形式多视角数据集。该数据集共包含1,298,640张图片,其中训练集中有1,155,000张图片,测试集中有143,640张图片。在实际场景中采集的图像数据集上进行实验,结果表明,利用本文所提出的方法全自动构建的数据集可以满足深度神经网络训练的需求,使训练后的网络能用于实际工业场合。基于理论工件三维模型,经过点云数据格式转换、点云增采样、点云数据增强三个过程,得到三维工件点云数据集。经过五种点云数据增强方法的处理后,共有25,200个理想模型生成的点云数据,以及37,500个真实场景中采集到的工件的点云数据,该数据被应用于实际三维工件识别实验。结果表明,利用本文提出的方法全自动构建的三维工件数据集,能应用于工件尺度、位姿具有多样性的场合。针对用于训练深度神经网络的数据集标注费时的问题,基于本文构建的二维工件数据集,依据光照变换、阈值化、边缘跟踪算法,对二维检测结果标注文件的格式进行了分析,并且按照相应的格式,自动化地生成标注文件。与传统的手工标注方法相比,本文提出的自动化标注数据集的方法可以极大地减少标注的时间,提高标注的效率;(4)针对实际采集图像中工件表面的低纹理、采集的图像出现运动模糊等问题,基于多源数据决策级融合方法,本文提出了彩色图和深度图的边缘融合算法。利用该边缘融合算法,以及基于切向量的边缘连通算法对融合后的边缘图像进行补全和连通,然后利用Polish Net-2d进行边缘图像的检测实验。结果表明,该方法在工件表面低纹理、采集图像出现运动模糊等情况下,依然可以取得非常好的检测结果。结果表明,本文提出的Polish Net-3d在二维工件检测网络Polish Net-2d的检测结果基础上,对分割后的工件点云数据进行识别,大大减小了场景中背景的点云数据对于识别率的影响。因此,即使在场景中有多个工件的情况下,Polish Net-3d也可以达到94.50%的识别率。这个融合方法可以应用于纹理模糊、以及背景与工件灰度较为接近的场景,提升该环境下的工件检测率和识别率。

司阳[3](2019)在《基于信息融合滤波的动态手势跟踪算法研究》文中进行了进一步梳理手势交互作为一种自然交互方式,是人机交互领域的重要基础性研究。随着新型体感交互设备的普及与最优估计理论的深入,如何基于视觉快速准确的捕获跟踪三维手势运动数据并实时理解动态手语的语义,已成为自然人机交互领域的关键问题。此外,听障人群位居五大残疾之首,手语作为聋哑人与外界交流的最主要方式,开发新型、自然、友好和便携的手势交互系统在聋人教学及交流方面起着至关重要的作用。因此,本文重点研究新型人机交互和动态手语识别中的两项关键技术即动态手势的检测与跟踪。动态手势运动涉及的人体部位为典型的非刚体目标,由于模型难以建立,动态手势运动轨迹的准确估算与跟踪较为困难。在动态手势跟踪过程中,手部存在任意变形,且目标手势并非一成不变的在做某一方向的匀速运动,而是存在各个方向速度未知的随机运动,即动态手势跟踪具有一个显着特点:机动性。此外,动态手势在连续运动过程中,由于目标可能出现的个数不确定及环境背景等因素的干扰,系统存在一定的随机性和不确定性。故动态手势跟踪过程中可能会出现四类问题:任意变形手势跟踪的鲁棒性问题、类肤色干扰问题、目标跟踪错误时的错误恢复问题以及多目标相互遮挡时的遮挡恢复问题。针对动态手势跟踪过程中可能存在的四类问题,本文提出一种基于信息融合滤波的动态手势跟踪算法。首先,采用Kinect2.0获取动态手势运动的RGB彩色视频流和深度视频流,构建动态手势数据库,并分别对其进行信息预处理;其次,提出一种基于区域-卷积神经网络R-CNN结合迁移学习算法的自动手势检测器训练方法,实现对复杂背景下目标手势的自动准确检测;随后,在传统仅含非机动模型的手势状态空间的基础上增添两个机动模型,以此更加准确的描述手势的状态空间,且通过融合动态手势运动过程中的肤色信息和深度阈值信息,提高动态手势跟踪算法的鲁棒性,并在此基础上提出了一种信息融合Kalman滤波跟踪算法;最终,完成动态手势跟踪算法的系统搭建及性能测试。为验证动态手势检测与跟踪算法的实时性和鲁棒性,对动态手势跟踪过程中的四类问题进行仿真。实验对比结果表明,本文算法可以有效解决动态手势跟踪过程中可能出现的四类问题,并且能够取得较高的检测和跟踪精度。

李君伟[4](2019)在《基于HSV的彩色纹理图像分类及目标追踪》文中认为近年来,彩色纹理图像的分类及目标追踪是计算机视觉领域的研究热点之一。目前彩色纹理图像的分类还存在对光照变化鲁棒性不强、抗噪声能力弱、特征维度过高等问题;抗遮挡能力不强是很多目标追踪方法存在的问题之一,其将导致追踪过程中发生漂移,针对以上问题,开展了本文的研究。针对目前一些纹理图像分类方法存在对光照变化鲁棒性不强、抗噪声能力弱、特征维度过高等问题,提出将颜色特征与纹理特征进行共生,对彩色纹理图像进行分类的方法。先将图像转化到HSV颜色空间后,对H通道使用SLIOP(Simplified Local Intensity Order Pattern)方法提取特征,对S通道和V通道用CLBP(Completed Local Binary Pattern)方法提取特征,然后将提取到的特征进行串联共生,最后利用支持向量机对纹理图像进行分类。利用现在被广泛使用的一些数据库,将该分类方法与其他几类具有代表性的分类方法进行实验对比,分类的准确率和效率上,都有一定提升。在KTH-TIPS2b和CUReT数据库上,提出的方法分类准确率分别达到99.4%、99.6%。实验结果表明,本算法具有较强的旋转不变性、光照不变性以及一定的抗噪性。针对时空上下文方法(Spatio-Temporal Context,STC)在追踪时,抗遮挡能力不强,容易发生漂移的缺点,通过对目标被遮挡的类型进行判断,然后对不同的遮挡类型采用不同的模型更新策略加之以分块的权重置信图,使得目标被遮挡时,遮挡物信息不被更新到目标模型中。利用改进后的方法,在Visual Tracker Benchmark视频库上进行验证,实验表明改进的方法在对目标进行追踪时,较之原始STC方法有较大提升,抗遮挡性有显着提升,同时对光照变化也具有鲁棒性,也能满足实时性要求。

韩光[5](2016)在《面向复杂场景的运动目标检测方法研究》文中研究表明运动目标检测技术就是从视频数据中智能地检测并分割出人们感兴趣的运动目标,以便后续对运动目标的进一步分析和理解,它是智能视频分析的基础和核心技术之一。目前,运动目标检测技术己经广泛应用于智能视频监控、智能交通管理、人机交互、汽车自动驾驶等领域。本文针对目前运动目标检测技术面临的应用挑战和理论研究中存在的难点问题,研究了面向复杂应用场景的运动目标检测方法,主要研究工作及成果如下:(1)为提升对前景、背景间微小特征差异的区分、辨别能力,提出了基于人类视觉亮度敏感性的单像素特征建模的运动目标检测算法。该算法借鉴了成熟的人类视觉系统(Human Visual System,HVS)在不同亮度背景环境下对亮度差异的感知特性,推导出适用于复杂图像背景环境的韦伯比,设置了适合参考背景模型中不同亮度背景的自适应匹配判断阈值,有效提升了算法对前景目标与背景间细微特征差异的感知能力,大大提高了前景目标检测、分割的准确性。实验表明,该算法具有很好的应对伪装目标问题的能力。(2)为适应场景动态变化、准确描述场景背景,提出了基于复杂特征建模的运动目标检测算法。为应对存在剧烈动态背景扰动等剧烈变化的复杂场景,借鉴HVS系统视觉感知的整体特性,通过挖掘场景空间上的复杂特征,提出了利用包含场景整体全局信息的复杂特征建模的运动目标检测算法,该算法改进脉冲耦合神经网络,模拟HVS系统对彩色场景的整体感知,增强神经网络对场景整体特性的体现能力,并使用神经网络输出的包含有图像全局信息的响应特征建立背景模型,可有效提高背景模型应对复杂多变环境的适应性,实验表明,该算法对动态背景等背景扰动表现出了很好的鲁棒性;为综合利用多源视频图像优势、获取场景更准确全面的背景描述,利用场景在红外、可见光多源视频中光谱上的复杂特征,提出了基于红外、可见光多源特征融合建模的运动目标检测算法,该算法根据融合了多源光谱信息的背景模型,对当前输入数据进行多源特征的联合匹配和决策,大大提高了对红外、可见光视频中互补信息的融合利用能力,实验表明,该算法检测结果既避免了由可见光视频中光照变化、阴影、伪装目标等带来的影响,又克服了红外视频中的光晕、热反射等问题。(3)针对现有背景子空间表征背景时缺乏对实际环境情况适应性的问题,引入先验信息,提出了基于背景低维子空间动态学习的运动目标检测算法和基于约束背景独立子空间分离的运动目标检测算法。为使低维背景子空间的学习能动态适应场景复杂变化,提出使用自适应稀疏权重的改进在线鲁棒主成分分析对背景的低维子空间进行动态估计和学习,利用反馈机制自适应调节子空间分解对前景目标稀疏程度的适应性,可有效提高算法适应场景背景动态变化和前景目标稀疏不同的能力,实验表明,该算法能在无防抖处理的情况下有效抑制摄像机抖动给运动目标检测带来的影响,对实际场景的复杂变化表现出了较强的鲁棒性;为符合背景、前景图像非线性混合形成观测视频图像的实际情况,将运动目标检测转化为非线性盲源分离问题,使用了非线性独立成分分析对视频数据进行盲源分离,并引入了关于背景的先验信息作为约束条件,大大提高了对独立背景子空间估计和前景目标检测的准确性,实验表明,更符合实际情况的非线性分离方式具有比线性分离方式更好的检测效果,特别是可有效解决目标的间歇性运动问题。(4)现有方法大多需通过学习来确定变换、分离前景与背景,会出现因学习不充分等因素影响运动目标检测精度的问题。针对这一问题,提出了基于三维小波变换的运动目标检测算法。该算法不需训练学习过程,利用三维小波变换的多尺度分析特性,直接将时间维度上特性不同的背景和前景分离到不同的三维小波子带中,并直接去除背景对应的小波子带,同时抑制对应于前景的其它小波子带内由非前景目标(如噪声、光照变化等)引起的扰动,可实现对前景目标的准确、快速分割。实验表明,该算法具有很好的克服缺少训练学习机会这一应用难题的潜力。

周前飞[6](2016)在《机载光电成像精确几何校正与鲁棒拼接关键技术研究》文中提出机载光电成像系统是用于实现空中侦察、目标捕获、跟踪和定位等功能的高精度光电成像测量设备,系统多搭载以变焦距可见光摄像机等为代表的有效载荷,通过焦距的连续变化使画面上的景物成像倍率连续地变化,较好地实现大视场搜索目标和小视场分辨目标的功能,并能够实现目标定位,在航空侦察、反恐维稳、边境巡逻、灾害预警、应急响应、大气探测和城市规划等诸多领域得到了广泛应用。但是,目前单一摄像机的视场范围有限,存在视场角与分辨率相互制约的问题,为同时满足航空侦察任务大视场、高分辨率的需求,需要对同一场景下的多幅航空图像进行拼接。另外,由于航空变焦距光学成像系统本身的设计、制造、装调和环控等原因,变焦距摄像机镜头在短焦距大视场情况下存在严重的非线性畸变问题,并且畸变量随焦距变化而变化,同时由于飞机姿态和摄像机视轴指向的变化,航空摄像机以一定倾斜角度对地摄影成像引起梯形失真,与变焦距镜头畸变叠加在一起产生了更复杂的几何变形,直接影响成像的几何位置精度和后续图像的拼接质量,为提高目标检测与定位、模式匹配等定量分析的准确性和利用其图像进行实时拼接的精度,必须对上述几何变形进行校正。另外,机载光电成像设备作用距离一般在几千米到几十千米,容易受大气湍流、像移模糊、离焦模糊、机械振动和雾霾等环境因素的影响,设备获得的航空图像模糊,对比度差,并且不同视角图像之间存在亮度和颜色差异,给图像配准与拼接造成了很大的困难。因此,本论文针对机载变焦距可见光成像系统在图像精确几何校正、目标定位与测量、图像精准配准与鲁棒拼接中存在的一些科学与技术问题进行研究,目的是输出一幅具有地理坐标信息、较高的几何精度和良好视觉效果的宽视场高分辨率拼接图像,本文的主要工作和研究成果如下:(1)针对航空变焦距镜头非线性畸变随焦距变化而变化的问题,提出了一种基于除式畸变模型和直线投影不变性的快速校正算法。该算法采用地面离线标定镜头畸变参数和机上在线校正相结合的方式,通过构造除式畸变校正模型对平面模板图像的非线性畸变进行校正,根据模板图像中共线点的投影不变性,采用hough变换方法检测出校正图像中的直线边缘,计算边缘上各点到理想直线的距离,并构造线性度投票函数作为畸变测度,建立以畸变模型参数为最优解的线性泛函,采用变步长优化搜索方法求解出变焦距镜头在若干离散焦距值状态下的畸变系数和畸变中心坐标,分析了这些畸变参数随焦距变化的规律,建立了各畸变参数与焦距之间的经验公式或构造出畸变参数查找表。在飞行试验中将实际工作焦距值代入经验公式或通过查找表方法得到相应畸变参数对实景图像进行自动校正,在校正精度、处理速度和自动化程度上有了明显提高。(2)针对变焦距航空面阵ccd摄像机高空大斜视成像产生的几何变形,提出一种同时校正斜视梯形失真和变焦距镜头非线性畸变的自动校正算法。首先采用上述标定方法得到摄像机镜头畸变系数、畸变中心坐标随焦距变化的经验公式或畸变参数查找表,再引入摄像机成像时的视轴指向和飞机位置、姿态等外参数,根据投影变换方法和除式畸变模型建立了斜视梯形失真和镜头非线性畸变的综合校正模型,引入四元数方法描述校正模型中相关坐标系之间的转换关系,构造出摄像机坐标系到地图坐标系的投影变换关系,将航空图像重投影到地图坐标系中,对坐标变换后的像素亮度值进行重采样得到校正斜视变形和镜头畸变后的正射投影图像。该算法减少了对像元数据的处理次数,能最大程度地保护校正图像的质量,在校正精度、峰值信噪比和校正速度上有一定程度的提高,较好地满足了后续图像拼接和目标定位跟踪的需求。(3)为提供拼接图像中各目标的地理坐标信息,并根据各图像顶点的地理坐标确定图像大致重叠区域和图像拼接次序,对航空序列图像进行初步配准以提高拼接速度和精度,提出一种基于像元视线向量的机载光电系统多目标自主定位方法。根据单面阵ccd传感器的成像原理,构造各目标的视线向量并计算其与图像中心主目标的像元视线角,结合已测得的主目标相对光电平台的方位角、高低角和距离,计算出各目标与机载光电平台的角度与距离关系,结合gps定位技术和航姿测量技术获取载机的位置姿态信息,通过齐次坐标变换方法计算出单幅图像中多个目标的大地坐标。提出采用畸变修正的方法和递归最小二乘滤波算法来进一步提高目标定位精度。该多目标自主定位方法具有定位精准,侦察效率高,便于工程应用等优点,将得到的各目标地理信息与拼接图像进行融合,生成带有地理坐标的宽视场高分辨率合成图像,具有重要军事应用价值。(4)针对机载光电设备在恶劣天气环境下获取的图像模糊,对比度差,存在较大亮度和颜色差异问题,首先提出一种基于改进墨西哥帽小波函数差分算子的特征点检测算法,该算法定位准确、重复率高,对尺度、旋转、平移、模糊、光照、噪声等具有良好不变性和鲁棒性;然后深入研究了基于矩不变量的仿射和模糊不变特征描述算法,利用特征点邻域内的几何矩构造仿射不变量,并与基于图像卷积不变量理论的模糊不变量进行特征融合,得到模糊和仿射组合不变量(combinedblurandaffineinvariants,cbais);根据图论的相关理论构造仿射不变量,并与模糊不变量进行特征融合得到基于图论的卷积和仿射混合不变量(mergingblurandaffinemomentinvariantsbasedongraphs,gmbais);将cbais与gmbais特征进一步进行融合,得到更鲁棒的仿射和模糊不变特征描述符(logarithmicinvariantstoblurandaffinetransformbasedongraphs,glbais);对于彩色图像可进一步结合颜色不变量模型提取颜色不变量构造特征描述向量(glcbais),该特征描述向量对模糊、噪声和光照变化不太敏感,并具有良好的旋转和尺度不变性;最后利用特征描述向量之间的欧式距离作为相似性度量进行特征匹配。实验结果表明该图像配准算法具有较好的尺度、旋转及仿射不变性,对模糊、光照、噪声具有良好的鲁棒性和适应性,匹配速度和精度优于传统的算法,能较好地实现航空模糊图像的精准配准和鲁棒拼接。(5)针对图像拼接误差随图像数量的增加而累积变大的问题,除用目标定位算法得到各图像顶点的地理坐标对图像进行粗配准之外,提出一种自适应多级分层拼接算法来进一步减小拼接误差,较好地消除了拼接缝隙问题,得到一幅宽视场、高分辨率的合成图像,整体视觉效果好。

郑太雄,江明哲,冯明驰[7](2021)在《基于视觉的采摘机器人目标识别与定位方法研究综述》文中研究表明目标识别和定位的精度直接关系到采摘机器人采摘效率、质量和速度。本文对近年来采摘机器人的目标识别和三维定位的研究工作进行了系统性的总结和分析,综述了果蔬识别和定位的几种主要方法:目标识别:数字图像处理技术、基于机器学习的图像分割与分类器和基于深度学习的算法;三维定位:基于单目彩色相机、基于立体视觉匹配、基于深度相机、基于激光测距仪和基于光基3D相机飞行时间的三维定位。分析了影响果蔬识别和定位精度的主要因素:光照变化、复杂的自然环境、遮挡以及动态环境干扰下成像不精确。最后对采摘机器人目标识别与定位的未来发展作了几点展望。

史胡祎[8](2021)在《基于深度学习的城市道路行人跟踪与轨迹预测研究》文中进行了进一步梳理近年来,由于数据驱动的深度学习技术的突破,推动了自动驾驶技术在城市限定区域的落地应用。然而,出于安全性考虑,自动驾驶车辆往往采用优先礼让行人策略,这会使自动驾驶车辆在高密度的一般城市道路环境中停滞不前,造成交通拥堵。准确感知行人并预测行人的未来轨迹,是解决该问题的关键。本文重点关注自动驾驶环境感知方案中的行人检测、行人跟踪和行人轨迹预测问题,基于深度学习方法和视觉传感器,针对城市无信号控制路段的行人进行对象识别、位置获取以及轨迹预测研究,主要研究内容如下:(1)搭建了一种基于卷积神经网络的一阶段目标检测模型。当前的自动驾驶技术要求目标检测模型具备良好的光照变化鲁棒性和场景适应性。针对这一需求,以一阶段目标检测算法Yolov3为基础,构建行人检测模型。使用K-means算法对VOC2007数据集进行聚类,得到了 9个更具普适性的行人检测框尺寸,并在MS COCO数据集的基础上,添加了 INRIA Person数据集以扩充白天城市道路场景的行人样本,添加了ExDark数据集以扩充夜间城市道路场景的行人样本,最终训练得到的模型在CUHK square、CPCS、KITTI、ExDark和NightOwls测试集上对光照变化鲁棒,场景泛化性能良好,且具备较高的精度和实时性。(2)提出了一种引入全局注意力机制的行人跟踪模型。目前的TBD(Track by Detection)模式的多目标跟踪模型,因内部级联匹配效果不佳,导致跟踪过程中频繁发生目标ID切换。针对这一问题,提出将全局注意力机制引入级联匹配的表观特征提取过程。所提出的模型以SORT为基础架构,在表观特征提取网络ResNet50中加入Rga(全局注意力)模块以提升网络输出的表征能力。所提出模型在白天场景的自动驾驶数据集KITTI和夜间场景的自动驾驶数据集NightOwls上对光照变化鲁棒,场景泛化性和精度表现良好,并在MOT16基准上,较EAMIT、POI、SORT和DeepSORT四种方法,在ID切换次数等部分精度指标上取得了提升,且能够在单显卡上实现实时跟踪。(3)提出了一种状态信息共享的LSTM行人轨迹预测模型。原始LSTM单元结构仅基于待预测目标自身状态预测轨迹,导致预测结果无法体现行人轨迹的群体性和相互规避性。针对这一问题,提出一种状态信息共享的LSTM单元结构。所提出结构考虑待预测目标指定距离范围内的其他对象的状态信息,以状态信息加权和的形式加入LSTM内部长期记忆单元的构建过程。基于所提出的结构,设计了一种状态信息共享的LSTM轨迹预测模型,该模型在单显卡上能够实现实时轨迹预测,且在ETH和UCY基准上,较SF、IGP、LSTM和同样考虑了行人彼此间相互作用的Social-LSTM方法取得了最低的平均位移误差,并保持了较低的最终位移误差。(4)使用自采集的校园道路场景数据集验证了本文三个模型的性能。本文搭建的目标检测模型和提出的行人跟踪模型应对光照变化和场景变化的能力在自采集数据集上得到了进一步的验证。本文三个模型在实际的自动驾驶场景应用中均保持了较高的精度和实时性,能够满足自动驾驶领域行人检测、行人跟踪和行人轨迹预测任务的需求。

王鹏[9](2021)在《虹膜识别中的活体检测技术研究》文中研究表明基于虹膜信息的身份识别是最可信、最准确的生物身份识别模式之一,而受图像采集、个体差异、攻击手段多样等外部因素影响,虹膜识别技术在广泛应用的同时暴露出了面对伪造样本攻击时的脆弱性。利用单帧图像在虹膜识别前进行活体检测,抵御翻拍伪造样本、佩戴彩色隐形眼镜样本、眼球模型样本的攻击,是本文研究的要点。本文建立近红外成像虹膜数据集用于活体检测算法研究。主要创新点如下:(1)针对三种攻击方式分别提出活体检测算法并设计了一个基于传统算法级联的虹膜活体检测系统。首先以伪造样本图像与活体虹膜图像二者之间成像差异为切入点,针对翻拍攻击、彩色隐形眼镜攻击、眼球模型攻击三方面展开研究。针对翻拍样本攻击,根据纹理细节特征提出一种基于纹理分析的翻拍虹膜图像检测算法,分析该算法缺陷并对近红外点光源下的人眼成像进行建模,根据成像模型统计差异,提出一种基于近红外成像模型的翻拍虹膜图像检测算法;针对彩色隐形眼镜攻击,分析眼镜构造与佩戴特征,提出了一种基于生物纹理分析和亮度变化的彩色隐形眼镜攻击检测算法;针对眼球模型攻击,分析模型的伪造虹膜纹理特征与眼部成像特征,据此提出一种基于结构相似度和纹理复杂度的眼球模型检测算法。然后建立级联分类器,搭建抵抗三种攻击手段的活体检测系统,经实验测试,虹膜活体检测系统F1-score达到0.952。(2)提出一种基于复合注意力机制集成学习网络的统一虹膜活体检测算法。基于传统算法级联的虹膜活体检测方法存在算法孤立的短板。针对这一局限,提出一种复合注意力机制集成学习网络(CAMEL-Net),在骨干网络中加入双注意力机制,从而使网络更加关注虹膜区域,并在两路网络融合阶段提出集成融合模块(EFB),以改善特征图硬性融合导致网络性能提升困难的问题,经实验测试,复合注意力机制集成学习网络在虹膜活体检测任务中F1-score达到0.972。本文所提两类虹膜活体检测算法,可在图像存在轻微离焦、翻拍介质和手段变化等多种情况下有效的进行活体检测,降低伪造样本对虹膜识别系统的威胁。

代天乐[10](2021)在《复杂遮挡环境下目标检测与跟踪技术研究》文中研究说明近几年,随着计算机视觉技术的兴起,运动目标检测与跟踪技术在军事制导、智能视频监控、智慧城市等多个方面得到了广泛的应用。由于实际应用场景多样性,传统运动目标检测与跟踪算法在很多复杂场景如:动态背景、初始帧存在运动目标、目标间歇性运动、目标形变、目标旋转、背景杂乱、目标遮挡以及尺度变化等场景下,检测与跟踪性能不佳。因此,为了提高传统算法在以上复杂场景中的检测与跟踪性能,论文对传统的运动目标检测与跟踪算法进行了改进,论文所做工作包括:(1)针对传统视觉背景提取算法(Visual Background Extractor,Vi Be)在动态背景、初始帧存在运动目标、以及目标间歇性运动场景下,容易出现误检和漏检等情况。论文提出了一种基于时空样本的背景建模方法,充分结合时域背景建模性能较好的高斯混合模型(GMM)算法以及空域背景建模较好的Vi Be算法的优点,并在前景点检测与背景模型更新上对传统算法进行自适应改进。经实验证明论文算法较传统算法在综合评价指标measure F-上约提高了8%,大大提高了算法在复杂场景下的鲁棒性。(2)针对传统的核相关滤波目标跟踪算法在外观模型建立上采用单一特征,在目标发生形变、目标旋转以及背景杂乱等复杂场景下跟踪精度低等问题。论文提出了一种基于多特征自适应融合的核相关滤波目标跟踪算法。首先分析了不同特征单独响应的峰值图;然后根据不同特征在不同场景下响应峰值图的置信度,采用响应峰值图的次峰主峰比(RSFM)对不同特征分配不同的权重;最后根据融合后的特征进行相关响应确定跟踪目标的位置。经实验证明论文算法在目标发生形变、目标旋转以及背景杂乱等复杂场景下较传统的算法在跟踪精度和跟踪成功率上均有明显的提高。(3)针对传统核相关滤波目标跟踪算法在目标被遮挡以及尺度变化场景下容易导致跟踪丢失等问题。论文提出了一种分块抗遮挡与尺度自适应的核相关滤波目标跟踪算法。当目标被局部遮挡时,论文算法可根据未发生遮挡的子块和全局块联合确定目标的位置;当目标被全局遮挡时,论文算法会自动扩大目标搜索区进行重检测。在跟踪器模型更新上提出了一种遮挡检测机制来自适应的更新模型;在目标发生尺度变化时,论文算法可以根据各个子块的聚合程度来选择相应的尺度因子,进而自适应的调节跟踪器的尺度。经实验表明论文算法在目标遮挡和尺度变化场景下较传统的核相关滤波目标跟踪算法在跟踪精度上约提高了17%和16%,在跟踪成功率上分别提高了20%和13%。

二、一种对光照变化鲁棒性的彩色目标检测方法(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、一种对光照变化鲁棒性的彩色目标检测方法(论文提纲范文)

(1)复杂视频场景下的运动目标检测与跟踪研究(论文提纲范文)

摘要
Abstract
1 绪论
    1.1 研究背景和意义
    1.2 研究现状
        1.2.1 运动目标检测
        1.2.2 运动目标跟踪
    1.3 论文的主要研究内容和创新性成果
    1.4 论文的章节安排
2 基于鲁棒局部纹理特征的核密度估计运动目标检测
    2.1 引言
    2.2 核密度估计方法背景建模
        2.2.1 核密度估计的基本原理
        2.2.2 核密度估计方法的分析
        2.2.3 核密度估计背景建模
    2.3 基于鲁棒局部纹理二值模式的运动目标检测
        2.3.1 局部二值模式LBP
        2.3.2 鲁棒的局部纹理特征二值模式LBP_Center
        2.3.3 融合LBP_Center的核密度估计运动目标检测
    2.4 实验结果及分析
        2.4.1 实验数据及量化指标
        2.4.2 与基于核密度估计或纹理特征的同一体系方法比较
        2.4.3 与其它性能突出的算法比较
    2.5 本章小结
3 基于区域颜色属性二阶矩直方图背景建模的运动目标检测
    3.1 引言
    3.2 颜色属性相关理论
        3.2.1 颜色属性的含义
        3.2.2 概率潜在语义模型
    3.3 基于区域颜色属性二阶矩直方图的背景建模法
        3.3.1 算法框架
        3.3.2 颜色属性二阶矩直方图
        3.3.3 背景模型的建立
        3.3.4 模型更新及前景检测
    3.4 实验及分析
        3.4.1 参数设置
        3.4.2 实验结果及分析
    3.5 本章小结
4 自适应低秩稀疏分解运动目标检测
    4.1 引言
    4.2 鲁棒的主成分分析算法
        4.2.1 压缩感知
        4.2.2 鲁棒的主成分分析模型
        4.2.3 模型求解算法
    4.3 自适应的低秩稀疏分解算法
        4.3.1 增广矩阵的构建
        4.3.2 低维背景建模及模型求解
        4.3.3 背景模型更新
    4.4 实验结果及分析
    4.5 本章小结
5 融合模糊统计纹理特征的多线索粒子滤波跟踪
    5.1 引言
    5.2 目标跟踪的贝叶斯估计建模
    5.3 基于蒙特卡洛的递归贝叶斯滤波算法
        5.3.1 序贯蒙特卡洛积分
        5.3.2 重要性采样
        5.3.3 粒子退化及重采样
        5.3.4 粒子滤波
    5.4 模糊统计纹理多特征融合的粒子滤波跟踪
        5.4.1 Histon直方图
        5.4.2 模糊统计纹理特征(Fuzzy Statistical Texture Feature)
        5.4.3 多特征多线索融合的粒子滤波跟踪算法
    5.5 实验结果及分析
        5.5.1 评价指标
        5.5.2 粒子滤波框架下算法的比较
        5.5.3 与流行跟踪算法的比较
    5.6 本章小结
6 结论与展望
    6.1 结论
    6.2 未来工作的展望
致谢
参考文献
攻读学位期间的研究成果

(2)基于深度学习的三维工件识别关键技术研究(论文提纲范文)

摘要
abstract
第1章 绪论
    1.1 课题背景和研究意义
    1.2 基于传统图像处理方法的二维物体检测研究现状
    1.3 基于深度学习方法的二维物体检测研究现状
    1.4 基于传统点云处理方法的三维物体识别研究现状
    1.5 基于深度学习方法的三维物体识别研究现状
    1.6 深度学习相关数据集
    1.7 存在的问题
    1.8 本文主要研究内容及创新点
第2章 三维工件识别系统软硬件总体架构
    2.1 制造业领域视觉感知需求分类
        2.1.1 制造业的不同领域
        2.1.2 对识别工件进行抽象的不同维度
        2.1.3 日常领域与工业领域中物体识别的区别
    2.2 铸件打磨机器人系统及视觉识别软件架构
        2.2.1 铸件打磨机器人系统硬件组成
        2.2.2 视觉识别软件架构
    2.3 视觉识别算法总体架构设计
    2.4 本章小结
第3章 工业工件深度学习数据集的自动化构建
    3.1 深度学习数据集的分类
        3.1.1 按照不同维度来区分
        3.1.2 按照应用领域来区分
    3.2 数据集的生成和标注方法
        3.2.1 现有的一些数据集生成和标注方法
        3.2.2 自动化构建数据集的意义及难点
    3.3 自动化构建二维工件深度学习数据集
        3.3.1 理论模型自动化生成理想图片
        3.3.2 真实工件图像数据集信息自动化提取
        3.3.3 数据集类型展示
        3.3.4 自动化生成二维数据标注文件算法
    3.4 自动化构建三维工件深度学习数据集
        3.4.1 从理论模型自动化生成理想点云
        3.4.2 三维点云数据增强
        3.4.3 自动化生成三维点云标注文件算法
    3.5 本章小结
第4章 基于PolishNet-2d的二维工件检测卷积神经网络
    4.1 PolishNet-2d网络结构组成
        4.1.1 骨干网络
        4.1.2 区域建议网络
        4.1.3 位姿变换网络X-Net
    4.2 训练网络时的网络超参数以及优化策略
        4.2.1 实验环境及默认网络初始参数
        4.2.2 训练策略
        4.2.3 评价标准
    4.3 不同网络超参数下的实验结果对比分析
        4.3.1 学习率
        4.3.2 批大小
    4.4 实验结果与分析
        4.4.1 数据集组成及合成方法介绍
        4.4.2 检测中间过程可视化
        4.4.3 训练及测试结果数据及分析
    4.5 本章小结
第5章 基于PolishNet-3d的三维点云识别卷积神经网络
    5.1 三维工件点云识别卷积神经网络Polish Net-3d
        5.1.1 骨干网络
        5.1.2 点云深度学习算法的不变性特征
        5.1.3 旋转参数学习子网络R-Net
        5.1.4 层次特征提取网络HFEN
    5.2 训练网络时的网络超参数以及优化策略
        5.2.1 网络超参数
        5.2.2 训练优化策略
    5.3 实验结果与分析
        5.3.1 加入HFEN和 R-Net后的测试结果
        5.3.2 不同的点云密度测试结果
        5.3.3 真实采集的点云数据测试结果
        5.3.4 本文工作与现有其它工作的对比
    5.4 本章小结
第6章 低纹理工件检测与识别
    6.1 低纹理边缘融合算法
        6.1.1 图像预处理
        6.1.2 彩色图像与深度图像进行边缘融合
    6.2 结合PolishNet-2d和PolishNet-3d
        6.2.1 基于PolishNet-2d的二维工件边缘图像检测
        6.2.2 基于PolishNet-3d的三维工件点云识别
        6.2.3 PolishNet-2d与PolishNet-3d的结合
    6.3 实验结果与分析
        6.3.1 二维低纹理工件检测实验结果与分析
        6.3.2 三维工件点云识别实验结果与分析
    6.4 本章小结
总结与展望
    1 论文主要工作及创新点
    2 研究展望
参考文献
攻读博士学位期间发表的论文和取得的科研成果
致谢

(3)基于信息融合滤波的动态手势跟踪算法研究(论文提纲范文)

摘要
abstract
1 绪论
    1.1 课题研究背景与意义
    1.2 国内外研究现状
        1.2.1 国内手势跟踪技术的现状与发展
        1.2.2 国外手势跟踪技术的现状与发展
    1.3 论文研究的重点及难点
    1.4 本文主要内容与章节安排
        1.4.1 本文主要内容
        1.4.2 本文章节安排
2 动态手势数据库的构建与信息预处理
    2.1 引言
    2.2 动态手势数据库的构建
    2.3 信息预处理
        2.3.1 RGB彩色视频流的信息预处理
        2.3.2 深度视频流的信息预处理
    2.4 本章小结
3 复杂背景下目标手势的自动检测
    3.1 引言
    3.2 本章算法框架
    3.3 基于R-CNN和迁移学习算法的自动手势检测器
    3.4 实验结果及分析
    3.5 本章小结
4 信息融合Kalman滤波跟踪算法
    4.1 引言
    4.2 本章算法框架
    4.3 改进型Camshift跟踪算法研究
        4.3.1 改进型Camshift跟踪算法
        4.3.2 仿真及结果分析
    4.4 交互式多模型Kalman滤波跟踪算法研究
        4.4.1 基本模型
        4.4.2 交互式多模型Kalman滤波跟踪算法
        4.4.3 改进型交互式多模型Kalman滤波的融合跟踪算法
        4.4.4 仿真及结果分析
    4.5 多传感器数据融合Kalman滤波跟踪算法研究
        4.5.1 多传感器数据融合Kalman滤波器
        4.5.2 多传感器数据融合Kalman预报器
        4.5.3 仿真及结果分析
    4.6 本章小结
5 动态手势跟踪算法的系统搭建及性能测试
    5.1 引言
    5.2 动态手势跟踪算法的系统搭建
    5.3 动态手势跟踪算法的性能测试
        5.3.1 任意变形手势跟踪的鲁棒性问题
        5.3.2 类肤色干扰问题
        5.3.3 目标跟踪错误时的错误恢复问题
        5.3.4 多目标相互遮挡时的遮挡恢复问题
    5.4 本章小结
6 总结与展望
    6.1 总结
    6.2 展望
参考文献
攻读硕士学位期间发表的论文
致谢

(4)基于HSV的彩色纹理图像分类及目标追踪(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 背景及意义
    1.2 国内外研究现状
        1.2.1 纹理图像分类研究现状
        1.2.2 目标追踪研究现状
    1.3 本文的工作及内容安排
        1.3.1 本文的主要研究内容
        1.3.2 论文内容章节安排
第2章 图像颜色空间及颜色特征提取
    2.1 引言
    2.2 颜色空间介绍
        2.2.1 颜色空间定义
        2.2.2 颜色空间分类
    2.3 部分常用颜色空间
        2.3.1 RGB颜色空间
        2.3.2 HSV颜色空间
        2.3.3 CMYK颜色空间
    2.4 颜色特征提取方式
        2.4.1 颜色直方图
        2.4.2 颜色矩
        2.4.3 颜色集
        2.4.4 颜色聚合向量
        2.4.5 颜色相关直方图
    2.5 本章小结
第3章 基于HSV颜色空间的多模式共生的彩色纹理图像分类方法
    3.1 引言
    3.2 共生
    3.3 局部二值模式及其变体
        3.3.1 局部二值模式及其变体分类
        3.3.2 局部二值模式及其部分变体
    3.4 简化局部像素强度顺序模式
    3.5 完备局部二值模式与简化局部像素强度顺序模式共生的纹理分类
    3.6 对比实验
        3.6.1 数据库
        3.6.2 实验结果与讨论
    3.7 本章小结
第4章 抗遮挡时空上下文目标追踪方法
    4.1 引言
    4.2 时空上下文追踪方法
    4.3 抗遮挡时空上下文目标追踪方法
        4.3.1 目标及周围上下文区域的分块
        4.3.2 抗遮挡跟踪方法
    4.4 抗遮挡时空上下文算法实验参数选取及实验结果分析
        4.4.1 实验数据库
        4.4.2 实验结果及分析
    4.5 本章小结
总结与展望
致谢
参考文献
攻读硕士学位期间发表的论文和参加的科研项目

(5)面向复杂场景的运动目标检测方法研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究背景及意义
    1.2 运动目标检测技术发展及国内外研究现状
        1.2.1 运动目标检测方法的国内外研究现状
        1.2.2 运动目标检测方法的性能评价
        1.2.3 运动目标检测的公开数据库
    1.3 运动目标检测的应用难题和研究热点
        1.3.1 运动目标检测的应用难题
        1.3.2 运动目标检测的研究热点
    1.4 本文的主要工作及内容安排
        1.4.1 本文的研究工作及成果
        1.4.2 本文的内容安排
第2章 基于单像素特征建模的运动目标检测方法研究
    2.1 基于单像素特征建模的运动目标检测经典方法概述
    2.2 基于人类视觉亮度敏感性的运动目标检测算法
        2.2.1 揭示人类感知规律的韦伯定律
        2.2.2 适用于复杂图像背景环境的韦伯比的分析与推导
        2.2.3 基于人类视觉亮度敏感性的自适应匹配判断阈值设置
        2.2.4 算法描述
        2.2.5 自适应匹配判断阈值对算法性能的影响分析
    2.3 实验结果及分析
        2.3.1 实验环境设置
        2.3.2 定性分析
        2.3.3 定量分析
    2.4 本章小结
第3章 基于复杂特征建模的运动目标检测方法研究
    3.1 基于复杂特征建模的运动目标检测经典方法概述
        3.1.1 基于图像局部邻域特征建模的运动目标检测方法概述
        3.1.2 基于多传感器信息建模的运动目标检测方法概述
    3.2 基于改进脉冲耦合神经网络的运动目标检测算法
        3.2.1 脉冲耦合神经网络(PCNN)的基础理论
        3.2.2 基于改进脉冲耦合神经网络的全局特征提取
        3.2.3 算法描述
        3.2.4 实验结果及分析
    3.3 基于红外、可见光多源特征融合建模的运动目标检测算法
        3.3.1 红外、可见光多源特征融合的理论基础和优势分析
        3.3.2 算法描述
        3.3.3 实验结果及分析
    3.4 本章小结
第4章 基于子空间学习的运动目标检测方法研究
    4.1 基于子空间学习的运动目标检测方法概述
        4.1.1 基于低维子空间分解的运动目标检测
        4.1.2 基于盲源信号分离的运动目标检测
    4.2 基于改进在线鲁棒主成分分析的运动目标检测算法
        4.2.1 自适应稀疏权重的在线鲁棒主成分分析
        4.2.2 算法描述
        4.2.3 实验结果及分析
    4.3 基于约束非线性独立成分分析的运动目标检测算法
        4.3.1 运动目标检测中的非线性盲源分离问题
        4.3.2 算法描述
        4.3.3 实验结果及分析
    4.4 本章小结
第5章 基于三维小波变换的运动目标检测方法研究
    5.1 小波变换基础理论与快速算法
        5.1.1 一维小波变换
        5.1.2 三维小波变换
    5.2 基于三维小波变换的运动目标检测算法
        5.2.1 三维小波变换用于运动目标检测的理论分析
        5.2.2 算法描述
        5.2.3 算法优势分析
    5.3 实验结果及分析
        5.3.1 实验环境设置
        5.3.2 定性分析
        5.3.3 定量分析
    5.4 本章小结
第6章 结论
参考文献
致谢
攻读博士学位期间论文及发明专利情况
个人简历

(6)机载光电成像精确几何校正与鲁棒拼接关键技术研究(论文提纲范文)

摘要
Abstract
英文缩略词列表
第1章 绪论
    1.1 课题研究背景及意义
    1.2 航空图像几何校正与拼接技术研究概述
        1.2.1 航空图像拼接技术的研究内容与技术流程
        1.2.2 航空图像几何校正技术的国内外研究现状
        1.2.3 航空图像配准与拼接技术的国内外研究现状
        1.2.4 航空图像几何校正与拼接技术的待解决问题与研究方向
    1.3 本文主要研究内容与组织结构
第2章 图像拼接的基础理论研究
    2.1 摄像机的针孔成像模型
    2.2 摄像机镜头畸变机理分析与建模
    2.3 摄像机的运动模型与梯形失真机理分析
    2.4 图像空间变换模型及与摄像机运动之间的关系
    2.5 图像几何校正与配准拼接质量评价方法
        2.5.1 图像几何校正的评价方法
        2.5.2 图像特征点检测的评价方法
        2.5.3 图像特征描述算法的评价方法
        2.5.4 图像配准精度的评价指标
        2.5.5 图像拼接精度的评价方法
    2.6 本章小结
第3章 航空变焦距镜头非线性畸变快速校正方法研究
    3.1 引言
    3.2 航空变焦距光学系统的理想成像模型
    3.3 变焦距镜头畸变校正模型
    3.4 镜头畸变模型参数估计算法
    3.5 航空变焦距镜头畸变的校正算法流程
    3.6 实验结果与分析
        3.6.1 实验一:标准图库校正实验与对比分析
        3.6.2 实验二:变焦距镜头畸变参数标定与校正实验
        3.6.3 实验三:实际航空图像的校正实验
    3.7 本章小结
第4章 变焦距航空面阵CCD摄像机斜视成像几何畸变校正算法研究
    4.1 引言
    4.2 航空变焦距斜视成像几何畸变校正算法
        4.2.1 图像几何畸变校正模型
        4.2.2 基于四元数法的高空大斜视图像几何校正算法
        4.2.3 航空变焦距斜视成像几何畸变校正算法流程
    4.3 实验与分析
        4.3.1 实验一:变焦距镜头畸变参数估计
        4.3.2 实验二:变焦距斜视标准图库校正实验
        4.3.3 实验三:实际航空变焦距斜视图像的几何校正与精度分析
    4.4 本章小结
第5章 机载光电系统多目标自主定位技术研究
    5.1 引言
    5.2 机载光电平台多目标自主定位系统的构成及其工作原理
    5.3 建立机载光电系统多目标自主定位模型
        5.3.1 坐标系定义
        5.3.2 多目标定位模型
    5.4 进一步提高多目标定位精度的方法
        5.4.1 畸变修正
        5.4.2 RLS(Recursive Least Squares)滤波实现多个静止目标的快速精确定位
    5.5 实验与讨论
        5.5.1 实验方案设计与仪器说明
        5.5.2 实验一:蒙特卡洛法分析多目标定位误差
        5.5.3 实验二:单帧航空图像的多目标定位与畸变修正
        5.5.4 实验三:多个地面静止目标定位的RLS滤波
        5.5.5 实验四:多个地面运动目标的实时定位跟踪
        5.5.6 实验五:根据GPS/IMU的位置姿态数据对航空图像进行粗配准与拼接
    5.6 本章小结
第6章 基于特征点邻域矩不变量的航空模糊图像配准算法
    6.1 引言
    6.2 本章主要研究内容与组织结构
    6.3 基于改进墨西哥帽小波函数差分算子(IDMHW)的模糊图像特征点检测算法
        6.3.1 基于墨西哥帽小波差分算子(DMHW)的特征点检测算法
        6.3.2 基于改进墨西哥帽小波函数差分算子(IDMHW)的特征点检测算法
        6.3.3 DMHW与IDMHW算法的性能测试与对比分析
        6.3.4 IDMHW算法对实际航空模糊图像的特征点检测实验
    6.4 基于矩不变量的特征描述算法
        6.4.1 仿射和模糊不变量的构造和推导
        6.4.2 仿射和模糊组合不变特征描述算法
        6.4.3 特征描述算法的不变性和鲁棒性测试实验
        6.4.4 结合颜色不变特征的特征描述算法(GLCBAIs)及其性能测试
    6.5 特征匹配算法
    6.6 图像变换模型参数的估计
    6.7 基于特征点邻域矩不变量的航空模糊图像配准算法流程
    6.8 图像配准实验与分析
        6.8.1 实验一:标准图像库的配准实验与精度评估
        6.8.2 实验二:实际航空模糊图像的配准与拼接实验
    6.9 本章总结
第7章 大视场图像拼接与地理信息融合技术研究
    7.1 引言
    7.2 图像融合算法
    7.3 航空图像几何校正与拼接算法与实验分析
        7.3.1 航空图像几何校正与拼接算法的技术流程
        7.3.2 变焦距航空相机摆扫图像的几何校正与拼接实验
    7.4 降低拼接累积误差的自适应多级分层拼接算法
    7.5 实际航空视频图像的拼接实验
    7.6 本章小结
第8章 结论与展望
    8.1 本文工作总结
    8.2 本文的主要创新性成果
    8.3 研究展望
参考文献
在学期间学术成果情况
指导教师及作者简介
致谢

(7)基于视觉的采摘机器人目标识别与定位方法研究综述(论文提纲范文)

0 引 言
1 目标检测及识别
    1.1 传统数字图像处理技术
        1)基于颜色特征
        2)基于形状特征
        3)基于纹理特征
        4)基于颜色、纹理、形状等多特征融合
        5)对比分析与总结
    1.2 基于机器学习的图像分割技术与分类器
        1)基于K-means聚类算法
        2)基于贝叶斯分类器算法
        3)基于KNN聚类算法
        4)基于AdaBoost和Haar-like特征算法
        5)基于支持向量机的算法
        6)对比分析与总结
    1.3 深度学习的卷积神经网络
        1)卷积神经网络模型
        2)AlexNet网络模型
        3)VGGNet网络模型
        4)残差神经网络(ResNet)模型
        5)Faster R-CNN网络模型
        6)SSD网络模型
        7)YOLO网络模型
        8)全卷积网络模型
        9)SegNet网络模型
        10)实例分割网络模型
        11)对比分析与总结
    1.4 目标检测及识别方法总结
2 目标三维定位
    2.1 基于单目彩色相机的三维定位
    2.2 基于立体视觉匹配的三维定位
    2.3 基于深度相机的三维定位
    2.4 基于激光测距仪的三维定位
    2.5 基于光基3D相机飞行时间的三维定位
    2.6 对比分析与总结
3 挑战与未来方向
    3.1 采摘机器人目标识别与定位研究挑战
    3.2 采摘机器人目标识别与定位研究未来方向
4 结 论

(8)基于深度学习的城市道路行人跟踪与轨迹预测研究(论文提纲范文)

摘要
Abstract
1 绪论
    1.1 研究背景及意义
    1.2 国内外研究现状
        1.2.1 行人检测研究现状
        1.2.2 行人跟踪研究现状
        1.2.3 行人轨迹预测研究现状
    1.3 研究内容及论文章节安排
        1.3.1 研究内容
        1.3.2 论文章节安排
2 基于卷积神经网络的目标检测
    2.1 引言
    2.2 目标检测数据集与模型评价标准
    2.3 目标检测网络Yolov3
        2.3.1 网络结构
        2.3.2 Scale变换
        2.3.3 损失函数
    2.4 实验
        2.4.1 先验框聚类
        2.4.2 网络训练
        2.4.3 行人实例检测结果
    2.5 本章小结
3 引入全局注意力机制的行人跟踪
    3.1 引言
    3.2 多目标跟踪数据集与模型评价标准
    3.3 多目标跟踪网络Deep SORT
        3.3.1 网络结构
        3.3.2 卡尔曼滤波
        3.3.3 指派问题
        3.3.4 级联匹配和IOU匹配
        3.3.5 匈牙利算法
    3.4 表观特征提取网络Rga-Resnet50
        3.4.1 网络结构
        3.4.2 损失函数
    3.5 实验
        3.5.1 训练表观特征提取网络
        3.5.2 行人实例跟踪结果
    3.6 本章小结
4 引入状态信息共享的LSTM行人轨迹预测
    4.1 引言
    4.2 轨迹预测数据集及模型评价标准
    4.3 状态信息共享的LSTM轨迹预测模型
        4.3.1 基于LSTM的轨迹预测
        4.3.2 状态信息共享的LSTM单元结构
        4.3.3 构建状态信息共享的LSTM轨迹预测模型
        4.3.4 损失函数
    4.4 实验
        4.4.1 网络训练
        4.4.2 行人实例轨迹预测结果
    4.5 本章小结
5 自动驾驶平台实验
    5.1 引言
    5.2 搭建实验平台
        5.2.1 实验平台及相机安装
        5.2.2 Kinectv2相机标定
    5.3 校园道路场景实例验证
        5.3.1 校园道路场景数据集
        5.3.2 目标检测模型实例验证
        5.3.3 行人跟踪模型实例验证
        5.3.4 行人轨迹预测模型实例验证
    5.4 本章小结
6 结论与展望
    6.1 结论
    6.2 本文创新点
    6.3 展望
致谢
参考文献

(9)虹膜识别中的活体检测技术研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 研究背景
    1.2 国内外研究现状与关键科学问题
        1.2.1 虹膜活体检测及相关领域国内外研究现状
        1.2.2 虹膜活体检测关键科学问题
    1.3 本文主要工作
第二章 虹膜活体检测相关基础与数据集采集
    2.1 近红外相机的成像原理和应用优势
    2.2 虹膜活体检测算法评价指标
    2.3 虹膜活体检测数据集采集
        2.3.1 活体虹膜采集标准
        2.3.2 伪造虹膜采集标准
    2.4 本章小结
第三章 基于传统算法级联的虹膜活体检测算法研究
    3.1 基于纹理分析的翻拍虹膜图像检测算法
        3.1.1 活体及翻拍样本成像纹理特性分析
        3.1.2 URLBP特征提取
        3.1.3 梯度幅值加权EOH特征提取
        3.1.4 算法设计
    3.2 基于近红外成像模型的单帧翻拍虹膜图像检测算法
        3.2.1 近红外点光源下的眼部成像模型建立与分析
        3.2.2 多方向小波子带平均差分对比度归一化系数矩阵
        3.2.3 非零均值广义高斯模型
        3.2.4 算法设计
    3.3 基于生物纹理分析和亮度变化的彩色隐形眼镜攻击检测算法
        3.3.1 彩色隐形眼镜构造与佩戴特征分析
        3.3.2 ROI区域选择与虹膜归一化
        3.3.3 虹膜生物纹理特征提取
        3.3.4 虹膜亮度变化统计特征提取
        3.3.5 算法设计
    3.4 基于结构相似度和纹理复杂度的眼球模型检测算法
        3.4.1 活体及眼球模型特征分析
        3.4.2 虹膜ROI区域结构相似度特征提取
        3.4.3 巩膜ROI区域纹理复杂度特征提取
        3.4.4 算法设计
    3.5 实验结果及分析
        3.5.1 活体检测系统搭建
        3.5.2 翻拍虹膜图像检测算法测试
        3.5.3 彩色隐形眼镜检测算法测试
        3.5.4 眼球模型检测算法测试
        3.5.5 活体检测系统测试
    3.6 本章小结
第四章 基于深度学习的统一虹膜活体检测算法研究
    4.1 基于单帧虹膜图像的活体检测网络设计
        4.1.1 候选基础网络分析
        4.1.2 复合注意力机制集成学习网络结构设计
    4.2 空间注意力的XCEPTION网络设计
        4.2.1 Xception骨干网络
        4.2.2 空间注意力机制嵌入
    4.3 通道注意力的DENSENET网络设计
        4.3.1 Dense Net骨干网络
        4.3.2 通道注意力机制嵌入
    4.4 集成融合模块设计
    4.5 实验结果及分析
        4.5.1 深度卷积神经网络训练数据预处理
        4.5.2 骨干网络选择
        4.5.3 集成融合模块结构实验
        4.5.4 复合注意力机制集成学习网络整体性能实验
    4.6 本章小结
第五章 结论与展望
参考文献
在学期间的研究成果
致谢

(10)复杂遮挡环境下目标检测与跟踪技术研究(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 课题研究背景与意义
    1.2 国内外研究现状
        1.2.1 运动目标检测国内外研究现状
        1.2.2 目标跟踪算法国内外研究现状
    1.3 课题研究存在的难点分析
    1.4 本文工作和章节安排
第2章 运动目标检测与跟踪算法分析
    2.1 引言
    2.2 运动目标检测算法
        2.2.1 帧间差分法
        2.2.2 高斯混合模型
        2.2.3 ViBe算法
    2.3 相关滤波目标跟踪算法
        2.3.1 DSST目标跟踪算法
        2.3.2 KCF目标跟踪算法
    2.4 本章小结
第3章 复杂环境下改进的ViBe运动目标检测算法
    3.1 引言
    3.2 常见的复杂情况分析
    3.3 改进的ViBe运动目标检测算法
        3.3.1 时空样本一致性的背景模型建立
        3.3.2 像素点时空复杂度的自适应前景阈值
        3.3.3 自适应背景模型更新机制
    3.4 实验结果与分析
        3.4.1 CDnet数据集
        3.4.2 定性实验结果分析
        3.4.3 定量实验结果分析
    3.5 本章小结
第4章 基于多特征自适应融合的核相关滤波目标跟踪算法
    4.1 引言
    4.2 多特征分析
        4.2.1 HOG特征
        4.2.2 CN特征
        4.2.3 LBP特征
    4.3 自适应特征融合
    4.4 算法流程
    4.5 实验结果与分析
        4.5.1 实验评价指标
        4.5.2 定性分析
        4.5.3 定量分析
    4.6 本章小结
第5章 复杂遮挡环境下改进的核相关滤波目标跟踪算法
    5.1 引言
    5.2 遮挡和尺度变化分析
    5.3 目标分块定位和尺度自适应设计
        5.3.1 目标分块设计与定位
        5.3.2 尺度自适应设计
    5.4 模型更新与目标重检测
    5.5 算法整体流程
    5.6 实验与结果分析
        5.6.1 定性分析
        5.6.2 定量分析
    5.7 本章小结
第6章 总结与展望
    6.1 总结
    6.2 展望
参考文献
攻读硕士学位期间取得的成果
致谢

四、一种对光照变化鲁棒性的彩色目标检测方法(论文参考文献)

  • [1]复杂视频场景下的运动目标检测与跟踪研究[D]. 金静. 兰州交通大学, 2020(01)
  • [2]基于深度学习的三维工件识别关键技术研究[D]. 刘富强. 哈尔滨工程大学, 2020(04)
  • [3]基于信息融合滤波的动态手势跟踪算法研究[D]. 司阳. 西安工业大学, 2019(03)
  • [4]基于HSV的彩色纹理图像分类及目标追踪[D]. 李君伟. 西南交通大学, 2019(03)
  • [5]面向复杂场景的运动目标检测方法研究[D]. 韩光. 东北大学, 2016(06)
  • [6]机载光电成像精确几何校正与鲁棒拼接关键技术研究[D]. 周前飞. 中国科学院研究生院(长春光学精密机械与物理研究所), 2016(08)
  • [7]基于视觉的采摘机器人目标识别与定位方法研究综述[J]. 郑太雄,江明哲,冯明驰. 仪器仪表学报, 2021(09)
  • [8]基于深度学习的城市道路行人跟踪与轨迹预测研究[D]. 史胡祎. 西安理工大学, 2021(01)
  • [9]虹膜识别中的活体检测技术研究[D]. 王鹏. 北方工业大学, 2021(11)
  • [10]复杂遮挡环境下目标检测与跟踪技术研究[D]. 代天乐. 长春理工大学, 2021(02)

标签:;  ;  ;  ;  ;  

一种对光照变化具有鲁棒性的彩色物体检测方法
下载Doc文档

猜你喜欢