双目融合论文-罗保林,张献州,罗超

双目融合论文-罗保林,张献州,罗超

导读:本文包含了双目融合论文开题报告文献综述及选题提纲参考文献,主要关键词:罗德里格矩阵,整体最小二乘,叁维扫描仪,机器人视觉

双目融合论文文献综述

罗保林,张献州,罗超[1](2019)在《融合罗德里格矩阵和整体最小二乘的双目机器人手眼标定算法》一文中研究指出针对传统双目式机器人手眼标定方法中未知量多、计算复杂的特点,研究并提出了一种基于罗德里格矩阵和整体最小二乘相融合的改进算法。其中罗德里格矩阵实现了对未知量的降维;整体最小二乘顾及了系数矩阵的误差。通过大量数据分析表明,改进后的手眼标定算法较传统方法在稳定性和精度上均有大幅提高,满足了机器人视觉系统在工业检测和制造领域中的高精度需求。(本文来源于《测绘科学技术学报》期刊2019年03期)

王延东[2](2019)在《多位姿信息融合的双目视觉惯性里程计研究》一文中研究指出随着机器视觉,惯性导航和计算机科学技术的发展,利用视觉惯性里程计解决在非结构化的场景中,GNSS信号强拒止弱观测的条件下,载体连续、稳定和精确的定位和测姿问题,已经逐渐地成为导航领域的热点研究方向。但是,视觉惯性里程计的性能与场景特征、载体运动和传感器的精度相关,在工作过程中可能发生以下情况:相机视点变化引起的图像间的几何变换;场景中特征信息不足和光照变化;载体的高动态引起的运动模糊;相机探测器的噪声——这些因素将导致视觉里程计的位姿测量产生较大的累积误差甚至失效。惯性导航由于惯性测量单元的零偏不稳定性和噪声等因素,其计算的位置、速度和姿态同样将产生累积误差。因此视觉惯性里程计相对于其它的导航系统的精度和适用性受场景特征、载体运动和传感器性能的影响较大。本文考虑到双目视觉里程计具有两个单目视觉和一个立体视觉的位姿测量信息,为视觉惯性里程计提供了更多的观测维度,将这些信息与惯导统一的融合将提高视觉惯性里程计的位姿估计精度。而且多视觉测量信息能够提供更多的位姿测量冗余度,当某视觉位姿测量单元发散或失效时,其它视觉位姿测量单元与惯性导航信息融合仍可获得较高精度的稳定导航信息。本文的目的是研究一种双目视觉惯性里程计多位姿信息的冗余结构以及数据融合技术,使视觉惯性里程计具有更多的位姿测量冗余度和信息观测维度,在几何变换、特征稀疏、光照变化、模糊和噪声等情况下,具有更高的鲁棒性,精度和可靠性,实现载体稳定、精确和实时的自主导航。本文的主要研究内容包括:1.提出了多视觉位姿信息与惯导信息的融合算法。本文系统地分析了单目视觉里程计和立体视觉里程计位姿估计的互补性,提出了“双单目+立体”的双目视觉惯性里程计工作模式。使双目视觉惯性里程计具有尺度确定,位姿估计不受深度陆标点深度限制的优点。并且利用数量更多、叁角化精度更高和几何分布更良好的陆标点信息,与叁个视觉位姿计算单元的信息以及惯导运动状态进行平滑估计。通过数据集测试,“双单目+立体”工作模式相比于立体视觉工作模式的视觉惯性里程计平动精度提高了27.34%,转动精度提高了13.54%。2.提出了多位姿信息的故障诊断和故障处理的冗余结构。为了解决大尺度场景条件下,可能出现的场景特征不足、特征误匹配和视觉里程计前端位姿计算发散的情况,基于“双单目+立体”的工作模式,以IMU预积分计算的运动状态为故障监测基准,深入研究并设计了视觉位姿估计信息的冗余结构,一旦某视觉里程计单元出现故障,根据功能结构的状态机,可自动地初始化故障单元,并且以正常工作的视觉里程计单元与惯性导航系统实现信息融合,实现导航信息的输出。在大尺度场景条件下,视觉位姿信息冗余设计的视觉惯性里程计功能结构显着地提高了视觉惯性里程计的鲁棒性和可靠性。3.提出了IMU预积分辅助的图像特征匹配算法。本文通过IMU预积分预测的相机间相对位姿,根据图像间的对极几何约束,估计对应特征点在匹配图像中的区域,使对应特征的搜索范围局限在匹配图像中对应极线的邻域范围。结合IMU辅助2点自适应RANSAC算法,相比于经典的图像特征匹配与3点RANSAC算法处理时间,本文的图像匹配处理时间减少了34.02%,弥补了由于“双单目+立体”的工作模式前端增加的计算量,提高了双目视觉惯性里程计的实时性。4.提出了改进的IMU预积分目标函数模型。双目视觉惯性里程计的后端采用批量平滑优化方法融合叁个视觉里程计单元和惯性导航的六自由度运动信息。为了保证惯导计算的运动增量和VO位姿计算增量的时间一致,采用IMU预积分的形式建立惯导的目标函数。不同于经典的在导航系IMU预积分模型,本文基于载体坐标系建立了IMU的预积分模型,并基于IMU零偏为慢变漂移的假设推导了其一阶形式,建立了基于载体系的INS目标函数,推导了目标函数相对于状态变量的Jacobian矩阵。基于载体系建立改进IMU预积分模型避免了载体系与导航系旋转矩阵的反复迭代,而且惯导部分目标函数的Jacobian矩阵也具有更简洁的形式。通过改进的IMU预积分模型,减少了后端最优估计的计算量。本文在室内场景和大尺度室外场景中多位姿信息融合的双目视觉惯性里程计的性能。室内场景利用EuRoC数据集,与OKVIS视觉惯性里程计对比,结果表明双目视觉惯性里程计的平动精度提高了18.37%,转动精度提高了10.52%;在大尺度场景下,利用高精度的GNSS/INS组合导航系统输出作为真值,对多位姿信息的双目视觉惯性里程计试验验证,结果表明:多位姿信息融合的双目视觉惯性里程计具有较高的鲁棒性,不变性、可靠性和实时性,在7.2km的运动距离条件下,平动精度为1.35%,转动精度为0.0020/m,数据更新率为10Hz。(本文来源于《中国科学院大学(中国科学院长春光学精密机械与物理研究所)》期刊2019-06-01)

邵伟伟[3](2019)在《融合2D激光雷达与双目视觉的机器人路径规划研究及应用》一文中研究指出移动机器人进行路径规划时常采用2D激光雷达对障碍物进行定位,并构建机器人用于导航的地图。机器人在使用2D激光雷达扫描障碍物时只能得到高度固定的二维雷达点云平面,机器人无法探测到在2D激光雷达高度以上的障碍物和低于激光雷达的障碍物,若只使用2D激光雷达完成障碍物的探测,则可能得不到空间内完整的障碍物信息,导致机器人的路径规划失败。针对上述情况,本文使用双目相机和2D激光雷达融合完成环境探测,采用双目相机的点云信息对雷达探测不到的障碍物信息进行补充。而在实际的应用中,随着障碍物深度信息的增加,双目相机的测距误差成非线性增长,因此本文提出了一种融合2D激光雷达与双目视觉的算法,以2D激光雷达点云为基准,修正双目相机点云,当双目相机的测距值为6米时,修正后的相机点云深度值的平均误差为7.4厘米。修正后的双目相机点云作水平面的投影得到二维相机点云平面,与雷达点云平面共同构建机器人导航所需要的地图。本文围绕着融合算法的提出与融合算法在机器人路径规划中的应用进行以下方面的研究:首先,为了方便本课题的研究,根据课题的需求搭建了移动机器人的实验平台,该实验平台包括机器人硬件和软件框架的搭建、机器人所搭载的传感器选型等。其次,提出了一种融合2D激光雷达与双目视觉的算法,该算法先筛选出用于和雷达点云相匹配的相机点云,得到匹配的相机点云后,通过最小二乘法将匹配的相机点云与雷达点云的深度信息进行误差拟合,求出拟合误差函数,通过拟合误差函数,对相机点云进行修正,从而得到较为精准的相机点云,并通过实验验证融合算法的可行性。最后,搭建随机障碍物的实验场景,该场景包含有一个通道和拱形障碍物,通过融合算法对相机点云进行修正,修正后的相机点云与雷达点云共同构建机器人导航的地图,其中地图的构建是以雷达点云为基准,双目相机点云在水平方向的投影为补充。构建机器人导航的地图后,采用改进的快速扩展随机树算法(RRT算法)完成机器人的路径规划,并通过平滑路径算法将规划的路径进行平滑处理,得到机器人较优路径。(本文来源于《安徽工业大学》期刊2019-04-20)

王中任,郭晓康,赵刚[4](2019)在《两组双目立体深度图像信息融合与叁维重建方法》一文中研究指出获取工件目标的叁维表面与深度信息是实现工业立体视觉应用的关键。提出一种将两组双目视觉系统结合的方法,对随机摆放的工件多方位采集图像并获得目标工件的叁维表面点云。其中,两组双目视觉系统会根据NCC(Normalized Cross Correlation)匹配算法产生工作场景的两组视差图像,去噪分割之后对其立体深度信息进行提取,其过程中采用一种新颖的转换方法,视差图像中每个坐标位置的像素点的x、y、z方向的立体深度信息分别被转化为X、Y、Z图像中对应位置上像素的灰度值。采样两组立体深度数据,共同储存到标定完成的参考相机坐标系中达到信息融合的目的。最后,对随机摆放的工业工件进行了的叁维重构实验,对于相互重迭、高度、姿势都不同的零件能较好的恢复出清晰的轮廓点云,在重迭区域也能产生较为明显的层次性。(本文来源于《激光与红外》期刊2019年02期)

万薇[5](2019)在《基于双目视觉与惯导信息融合的SLAM系统实现》一文中研究指出SLAM(Simultaneous localization and mapping,即时定位与地图构建)是指利用自身所携带的传感器获取移动机器人所在环境的叁维空间模型和机器人的运动轨迹。视觉SLAM技术随着图像处理与机器视觉的发展,逐渐成为实现移动机器人自主导航的关键技术之一。本文针对移动机器人同时定位与地图构建中存在累积误差的问题,提出利用双目视觉与惯导(Inertial measurement unit,即IMU)信息融合的位姿估计与优化算法,提高了移动机器人位姿估计和地图构建的准确性与鲁棒性。本文的主要工作和成果如下:1.针对双目视觉与惯导信息融合的SLAM系统中特征点的尺度问题,本文利用双目立体相机的视差原理获取空间特征点的深度信息。同时,利用ORB特征提取与匹配算法对图像的特征点进行描述,最后采用随机抽样一致性算法剔除误匹配,该方法不仅提高了特征描述与提取的速度,而且提高了特征匹配的准确率。2.针对双目视觉与惯导信息融合的SLAM系统中惯导的偏差及噪声问题,本文提出利用双目视觉计算的初始位姿信息与IMU的预积分模型,初始化IMU的偏差与速度。由于使用双目相机可计算特征点的深度信息,因此IMU初始化过程中的计算复杂度将会减小。3.针对双目视觉与惯导信息融合的SLAM系统中移动机器人位姿的准确性问题,本文提出利用双目视觉位姿估计算法EPnP(An Accurate O(n)Solution to the PnP Problem)算法,估计移动机器人的位姿,并在位姿优化中增加IMU预积分的约束,使移动机器人估计的位姿更加准确。4.针对检测回环及回环优化的问题,本文采用基于视觉词袋模型(bag-of-words,即BoW)的闭环检测算法检测关键帧间的相似度,该方法提高了回环检测的效率与准确度。同时,根据回环检测的结果,利用图优化算法进行全局优化减小移动机器人累积的漂移误差。最后,对全文进行总结,并对进一步的研究提出一些展望。(本文来源于《浙江工业大学》期刊2019-01-01)

陶阳[6](2019)在《双目与IMU融合的无人机定位技术研究及系统设计》一文中研究指出随着无人机技术的快速发展,无人机应用从主要面向军事领域,到如今逐渐多元化,广泛应用于航拍、巡检、无人机物流等多个专业领域。相信在不久的将来,无人机必将在人们日常生活中扮演越来越重要的角色。对于无人机而言,自主定位一直是无人机的一项核心能力,是无人机实现避障导航,路径规划的前提与基础。针对无人机在无GPS或GPS信号较弱的情况,本文利用双目相机与惯性测量单元(IMU)进行数据融合,为无人机提供准确的位置,姿态和速度信息,完成了一套双目与IMU融合的无人机自主定位系统的搭建与算法优化。本文主要工作与成果如下:(1)阐述了双目标定、基于Allan方差的IMU固有参数标定及相机与IMU外参标定的基本原理。设计了一种双目相机标定误差及相机与IMU外参标定误差的评价指标。通过标定实验,得到了双目相机与IMU的内外参数并对标定结果进行了误差校验。(2)介绍了基于光流跟踪的双目视觉定位的基本流程。研究了图像角点检测、光流跟踪、误匹配点去除、相机运动估计的基本原理。完成了均匀化FAST角点的算法设计。利用IMU信息,改进了光流跟踪算法与帧间误匹配点去除算法,实验表明本文改进算法提高了计算效率。(3)设计了 一套基于非线性优化的双目视觉与IMU融合定位算法。并在Euroc数据集上,和目前主流的开源双目视觉与IMU融合定位算法OKVIS进行了对比测试。实验结果显示:综合定位精度与计算负载两个方面,本文设计算法表现最佳。(4)搭建了基于双目与IMU融合的无人机自主定位系统。在实际场景中,开展了实验验证研究。实验表明,本文设计算法定位误差约为1.6%,基本满足无GPS信号情况下的无人机定位需求。(本文来源于《浙江大学》期刊2019-01-01)

史珂路,田军委,雷志强,张欢欢,孙雷[7](2018)在《基于融合动态模板匹配的双目测距算法》一文中研究指出高空无人机灭火时,要对火灾点进行探测.传统的探测方法易受环境的干扰,并且它的反应不灵敏,实时性较差.基于此本文提出了一种基于双目立体视觉的探测方法:首先搭建实验平台并设计其硬件电路,然后深入研究了经典的双目立体视觉测距算法,提出了一种新的测距方法.该方法主要内容包括:图像获取、感兴趣区域提取、图像预处理和基于权重融合的动态模板匹配算法.最后,采用多段非线性补偿的方法构建了测距模型,并在实验平台上对所构建的测距模型进行了大量的实验,实验结果表明:在50 m以内,该测距模型的误差在1 m以内, 100 m以内,测距误差在2 m,匹配精度为6.947像素/m,基本符合高空无人机灭火的精确测距要求,故该测距模型测量的距离精度较好,工程应用性强.(本文来源于《计算机系统应用》期刊2018年11期)

王霖郁,蒋强卫,李爽[8](2018)在《基于双目图像多特征点融合匹配物体识别与定位研究》一文中研究指出针对传统的特征点匹配算法对于纹理少的识别目标特征点检测不理想的问题,基于任何物体都具有边缘特征,通过匹配边缘特征点,实现物体的边缘特征点匹配,采用Canny检测算法,提取边缘特征点。在此基础上,增加FAST角点检测算法,采用BRIEF描述算法实现对特征点构建描述子,通过2种检测算法融合,解决了纹理少的物体检测特征少的问题,并增加了物体特征点匹配数量。采用YOLO网络模型实现物体识别和框出物体区域。实验结果表明,基于双目图像多特征点融合匹配算法,很好地解决了纹理少的物体匹配特征少的问题,构建的物体识别和定位系统可以实现对训练的物体识别与定位。(本文来源于《无线电工程》期刊2018年08期)

吕倪祺,宋广华,杨波威[9](2018)在《特征融合的双目半全局匹配算法及其并行加速实现》一文中研究指出目的在微小飞行器系统中,如何实时获取场景信息是实现自主避障及导航的关键问题。本文提出了一种融合中心平均Census特征与绝对误差(AD)特征、基于纹理优化的半全局立体匹配算法(ADCC-TSGM),并利用统一计算设备架构(CUDA)进行并行加速。方法使用沿极线方向的一维差分计算纹理信息,使用中心平均Census特征及AD特征进行代价计算,通过纹理优化的SGM算法聚合代价并获得初始视差图;然后,通过左右一致性检验检查剔除粗略视差图中的不稳定点和遮挡点,使用线性插值和中值滤波对视差图中的空洞进行填充;最后,利用GPU特性,对立体匹配中的代价计算、半全局匹配(SGM)计算、视差计算等步骤使用共享内存、单指令多数据流(SIMD)及混合流水线进行优化以提高运行速度。结果在Quarter Video Graphics Array(QVGA)分辨率的middlebury双目图像测试集中,本文提出的ADCC-TSGM算法总坏点率较Semi-Global Block Matching(SGBM)算法降低36.1%,较SGM算法降低28.3%;平均错误率较SGBM算法降低44.5%,较SGM算法降低49.9%。GPU加速实验基于NVIDIA Jetson TK1嵌入式计算平台,在双目匹配性能不变的情况下,通过使用CUDA并行加速,可获得117倍以上加速比,即使相较于已进行SIMD及多核并行优化的SGBM,运行时间也减少了85%。在QVGA分辨率下,GPU加速后的运行帧率可达31.8帧/s。结论本文算法及其CUDA加速可为嵌入式平台提供一种实时获取高质量深度信息的有效途径,可作为微小飞行器、小型机器人等设备进行环境感知、视觉定位、地图构建的基础步骤。(本文来源于《中国图象图形学报》期刊2018年06期)

徐宽[10](2018)在《融合IMU信息的双目视觉SLAM研究》一文中研究指出随着人工智能和机器人技术不断发展,机器人从原来的主要面向工业应用不断的走入人们的生活,为大众做熟知。其中,服务机器人和物流机器人很多已经商用,相信在不久的将来,机器人将在人们的生活中扮演越来越重要的角色。对于移动机器人,定位一直是其的一个核心能力,而本文的目的便是借助IMU(Inertial measurement unit,惯性测量单元)的信息提升视觉SLAM(simultaneous localization and mapping,即时定位与地图构建)的定位性能。首先,对于视觉信息的处理部分,本文分别综述了相机的针孔模型,双目视觉模型等双目视觉的基础知识。然后又介绍了FAST特征点、BRIEF描述符和ORB特征点。之后又介绍了词袋模型如何用到回环检测,以及如何进行回环的校正。其次,对于IMU信息的处理部分,为了使IMU的频率和图像信息的频率一致,本文建立了IMU的噪声模型和运动学模型,对IMU的测量量进行了预积分,并推导了IMU测噪声传播方程,分析了在IMU的随机游走更新的时候IMU预积分量更新的方式。然后,为了利用两个传感器的信息估计位姿,本文利用非线性优化的方法融合了IMU信息和视觉信息。之后还给出了一种对地图进行保存的方法,以及如何利用地图进行定位。最后,针对提出的算法设计并进行了实验。其中,标定实验标定出了双目的内参和外参,相机IMU联合标定实验标定出了相机和IMU的外参。利用Euroc数据集的实验对比了本文算法的定位结果和真实的ground truth之间的误差。之后还利用了小觅双目相机对作者周围的环境进行了建图和定位的实验,都取得了良好的结果。(本文来源于《哈尔滨工业大学》期刊2018-06-01)

双目融合论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

随着机器视觉,惯性导航和计算机科学技术的发展,利用视觉惯性里程计解决在非结构化的场景中,GNSS信号强拒止弱观测的条件下,载体连续、稳定和精确的定位和测姿问题,已经逐渐地成为导航领域的热点研究方向。但是,视觉惯性里程计的性能与场景特征、载体运动和传感器的精度相关,在工作过程中可能发生以下情况:相机视点变化引起的图像间的几何变换;场景中特征信息不足和光照变化;载体的高动态引起的运动模糊;相机探测器的噪声——这些因素将导致视觉里程计的位姿测量产生较大的累积误差甚至失效。惯性导航由于惯性测量单元的零偏不稳定性和噪声等因素,其计算的位置、速度和姿态同样将产生累积误差。因此视觉惯性里程计相对于其它的导航系统的精度和适用性受场景特征、载体运动和传感器性能的影响较大。本文考虑到双目视觉里程计具有两个单目视觉和一个立体视觉的位姿测量信息,为视觉惯性里程计提供了更多的观测维度,将这些信息与惯导统一的融合将提高视觉惯性里程计的位姿估计精度。而且多视觉测量信息能够提供更多的位姿测量冗余度,当某视觉位姿测量单元发散或失效时,其它视觉位姿测量单元与惯性导航信息融合仍可获得较高精度的稳定导航信息。本文的目的是研究一种双目视觉惯性里程计多位姿信息的冗余结构以及数据融合技术,使视觉惯性里程计具有更多的位姿测量冗余度和信息观测维度,在几何变换、特征稀疏、光照变化、模糊和噪声等情况下,具有更高的鲁棒性,精度和可靠性,实现载体稳定、精确和实时的自主导航。本文的主要研究内容包括:1.提出了多视觉位姿信息与惯导信息的融合算法。本文系统地分析了单目视觉里程计和立体视觉里程计位姿估计的互补性,提出了“双单目+立体”的双目视觉惯性里程计工作模式。使双目视觉惯性里程计具有尺度确定,位姿估计不受深度陆标点深度限制的优点。并且利用数量更多、叁角化精度更高和几何分布更良好的陆标点信息,与叁个视觉位姿计算单元的信息以及惯导运动状态进行平滑估计。通过数据集测试,“双单目+立体”工作模式相比于立体视觉工作模式的视觉惯性里程计平动精度提高了27.34%,转动精度提高了13.54%。2.提出了多位姿信息的故障诊断和故障处理的冗余结构。为了解决大尺度场景条件下,可能出现的场景特征不足、特征误匹配和视觉里程计前端位姿计算发散的情况,基于“双单目+立体”的工作模式,以IMU预积分计算的运动状态为故障监测基准,深入研究并设计了视觉位姿估计信息的冗余结构,一旦某视觉里程计单元出现故障,根据功能结构的状态机,可自动地初始化故障单元,并且以正常工作的视觉里程计单元与惯性导航系统实现信息融合,实现导航信息的输出。在大尺度场景条件下,视觉位姿信息冗余设计的视觉惯性里程计功能结构显着地提高了视觉惯性里程计的鲁棒性和可靠性。3.提出了IMU预积分辅助的图像特征匹配算法。本文通过IMU预积分预测的相机间相对位姿,根据图像间的对极几何约束,估计对应特征点在匹配图像中的区域,使对应特征的搜索范围局限在匹配图像中对应极线的邻域范围。结合IMU辅助2点自适应RANSAC算法,相比于经典的图像特征匹配与3点RANSAC算法处理时间,本文的图像匹配处理时间减少了34.02%,弥补了由于“双单目+立体”的工作模式前端增加的计算量,提高了双目视觉惯性里程计的实时性。4.提出了改进的IMU预积分目标函数模型。双目视觉惯性里程计的后端采用批量平滑优化方法融合叁个视觉里程计单元和惯性导航的六自由度运动信息。为了保证惯导计算的运动增量和VO位姿计算增量的时间一致,采用IMU预积分的形式建立惯导的目标函数。不同于经典的在导航系IMU预积分模型,本文基于载体坐标系建立了IMU的预积分模型,并基于IMU零偏为慢变漂移的假设推导了其一阶形式,建立了基于载体系的INS目标函数,推导了目标函数相对于状态变量的Jacobian矩阵。基于载体系建立改进IMU预积分模型避免了载体系与导航系旋转矩阵的反复迭代,而且惯导部分目标函数的Jacobian矩阵也具有更简洁的形式。通过改进的IMU预积分模型,减少了后端最优估计的计算量。本文在室内场景和大尺度室外场景中多位姿信息融合的双目视觉惯性里程计的性能。室内场景利用EuRoC数据集,与OKVIS视觉惯性里程计对比,结果表明双目视觉惯性里程计的平动精度提高了18.37%,转动精度提高了10.52%;在大尺度场景下,利用高精度的GNSS/INS组合导航系统输出作为真值,对多位姿信息的双目视觉惯性里程计试验验证,结果表明:多位姿信息融合的双目视觉惯性里程计具有较高的鲁棒性,不变性、可靠性和实时性,在7.2km的运动距离条件下,平动精度为1.35%,转动精度为0.0020/m,数据更新率为10Hz。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

双目融合论文参考文献

[1].罗保林,张献州,罗超.融合罗德里格矩阵和整体最小二乘的双目机器人手眼标定算法[J].测绘科学技术学报.2019

[2].王延东.多位姿信息融合的双目视觉惯性里程计研究[D].中国科学院大学(中国科学院长春光学精密机械与物理研究所).2019

[3].邵伟伟.融合2D激光雷达与双目视觉的机器人路径规划研究及应用[D].安徽工业大学.2019

[4].王中任,郭晓康,赵刚.两组双目立体深度图像信息融合与叁维重建方法[J].激光与红外.2019

[5].万薇.基于双目视觉与惯导信息融合的SLAM系统实现[D].浙江工业大学.2019

[6].陶阳.双目与IMU融合的无人机定位技术研究及系统设计[D].浙江大学.2019

[7].史珂路,田军委,雷志强,张欢欢,孙雷.基于融合动态模板匹配的双目测距算法[J].计算机系统应用.2018

[8].王霖郁,蒋强卫,李爽.基于双目图像多特征点融合匹配物体识别与定位研究[J].无线电工程.2018

[9].吕倪祺,宋广华,杨波威.特征融合的双目半全局匹配算法及其并行加速实现[J].中国图象图形学报.2018

[10].徐宽.融合IMU信息的双目视觉SLAM研究[D].哈尔滨工业大学.2018

标签:;  ;  ;  ;  

双目融合论文-罗保林,张献州,罗超
下载Doc文档

猜你喜欢