图像语义提取论文-李瀚超,蔡毅,王岭雪

图像语义提取论文-李瀚超,蔡毅,王岭雪

导读:本文包含了图像语义提取论文开题报告文献综述及选题提纲参考文献,主要关键词:全卷积神经网络,热图像,红外图像,带孔卷积

图像语义提取论文文献综述

李瀚超,蔡毅,王岭雪[1](2019)在《全局特征提取的全卷积网络图像语义分割算法》一文中研究指出以全卷积神经网络为基础设计图像语义分割算法框架,设计全局特征提取模块提升高维语义特征的提取能力,引入带孔卷积算子保留图像细节并提升分割结果的分辨率。通过搭建端到端的图像语义分割算法框架进行训练,在可见光数据集上对算法框架进行性能评估,结果表明,本文方法在可见光图像上取得良好的语义分割性能和精度。本文还在不借助红外数据标注训练的情况下对红外图像进行分割,结果证明本文方法在典型红外目标如行人、车辆的分割中也有较好的表现。(本文来源于《红外技术》期刊2019年07期)

宋忆宁[2](2019)在《图文结合UGC的图像语义知识提取方法及应用研究》一文中研究指出随着互联网不断地飞速发展,网民数量激增,人们的社交模式也逐渐发生了改变,从线下迁移到线上,人们在线下进行生活和工作的同时,也在线上精心经营着第二自我。具有相同兴趣的网民聚集在一起,组合成为虚拟社区,在虚拟社区上,大部分的内容都是用户所产生的,这些内容称为用户生成内容(User Generated Content,UGC)。UGC是互联网海量数据的重要来源,蕴含丰富的应用价值,是大数据时代发展的前提。但是UGC本身具有一定的缺点,随着社会化媒体的不断发展以及互联网技术的不断提高,造成了海量的UGC涌现,海量的UGC会放大UGC本身的缺点,并导致从UGC中提取出用户需要的信息和知识变得异常困难,目前关于此问题的研究仅集中于文本领域。尤其是当前UGC的表达方式从单一的文本转变为文本和图像的模式,然而,并无直接针对于图文结合内容的研究方法,如果针对于图文结合的UGC内容只使用关于文本方面的研究,会造成文本可用信息不足以完全表达原始意思,同时衡量内容的效果不如真实影响。那么,如何应用图像特征解决图文结合的UGC中文本信息不足是亟待解决的问题。本文的研究以虚拟社区中图文结合的UGC内容为研究对象,根据图像的语义理解理论,逐步地从图像的视觉层、对象层和概念层中提取及量化语义知识,并逐步地从如何考虑图像信息、到图像信息作为辅助信息、最后将图像信息和文本信息一并作为主要信息入手,同时解决目前虚拟社区中存在的内容水质、信息噪声和主题不符等问题。本文的研究对现有的图像信息提取及与文本的结合研究作了进一步地拓展,并对于图像不同层次语义知识的量化方式进行了探索和创新,为今后多媒体的知识提取及量化的研究并做了铺垫。具体研究工作如下所示:(1)基于图像语义理解理论,将图像视觉层的特征语义计算并量化,同文本等特征一并研究图文结合的UGC内容中添加图像的影响,并解决在图文结合的方式下,如何考虑图像信息解决UGC内容质量评估的问题。在真实的虚拟社区数据集上,该量化方法表现良好。该研究的指标选择结果为后续研究的图像筛选作了指导;(2)基于图像语义理解理论中视觉层的特征语义的指标选择方法,将图像对象层特征语义量化为主观评级和客观比例的方式,并将提取出的对象层信息作为辅助信息,解决文本信息作为主要信息时出现的数据稀疏性问题。在真实的虚拟社区数据集中,添加了图像信息的推荐方法较未添加时更精确。该研究的信息提取、加工处理结果为后续研究的图像学习模型作了铺垫;(3)基于图像语义理解理论中视觉层特征语义的指标选择方法和和对象层特征语义的信息量化方法,建立与图像概念层特征语义的映射关系,同时将图像概念层特征语义文本主题概率分布之间学习并发现联系,通过优质的内容训练模型后可以得知图像与文本主题的匹配度,用以解决图文结合的UGC内容中图文主题不符的问题。在真实的虚拟社区数据集中,添加了图文匹配度的质量预测方法较未添加时更准确。该研究的语义映射方法及验证作为最终解决图文深度结合UGC的语义知识提取方法。(本文来源于《华南理工大学》期刊2019-04-03)

董永峰,杨雨?,王利琴[3](2019)在《基于多尺度特征提取和全连接条件随机场的图像语义分割方法》一文中研究指出针对图像语义分割中图像的上下文信息利用不充分、边缘分割不清等问题,提出一种基于多尺度特征提取与全连接条件随机场的网络模型。分别以多尺度形式将RGB图像和深度图像输入网络,利用卷积神经网络提取图像特征;将深度信息作为补充信息添加到RGB特征图,得到语义粗分割结果;采用全连接条件随机场优化语义粗分割结果,最终得到语义精细分割结果。实验结果表明,所提方法提高了图像语义分割的精度,优化了图像语义分割的边缘,具有实际应用价值。(本文来源于《激光与光电子学进展》期刊2019年13期)

朱晓东[4](2018)在《用于SAR图像语义分割的聚集区域提取方法的研究》一文中研究指出合成孔径雷达(Synthetic Aperture Radar,SAR)具有全天时、全天候、高分辨等特点,已经成为对地观测的重要手段。由于SAR图像本身固有的成像机制造成了SAR图像上相干斑噪声、阴影、迎坡缩短等问题,使得SAR图像的解译十分困难。本团队提出的SAR图像层次视觉语义模型以素描线段为SAR图像素描图语义基元,赋予素描线段语义信息指导SAR图像的分割与理解。SAR图像聚集区域的提取是层次视觉语义模型中初级语义层到中级语义层的重要步骤之一,本论文中,针对SAR图像聚集区域的提取存在的问题,建立以素描线段为语义基元的几何计算模型和相关方法,论文的主要工作包括:(1)针对圆心算子对图像进行聚集区域的提取不仅不准确、速度慢、边界出现弧状,提出了基于Sketch Map单边聚集线段的聚集区域提取方法。在该方法中,建立了以素描线段为语义基元的聚集区域提取计算模型。具体是利用素描线段的空间几何位置关系和素描线段的单边聚集、双边聚集的拓扑关系,建立几何计算模型提取SAR图像的聚集区域。实验结果表明,所提出的方法针对聚集区域的提取不仅边界准确而且速度有较大的提升。(2)考虑到聚集线段集合的正确生成是聚集区域的提取的前提,针对聚集线段集合生成过程中存在的问题以及不合理的素描线段语义信息分类,提出了基于素描线段语义分类的聚集线段集合生成模型。在该方法中,明确了素描线段的语义信息,将边界素描线段、独立目标素描线段、聚集区域素描线段合理分类,在确定的语义信息的指导下合理生成聚集线段集合用于聚集区域的提取。实验结果表明,所提出的方法提高了聚集区域的一致性的同时更加注重区域细节部分。(3)针对大场景SAR图像的聚集区域提取十分耗时的问题,在聚集区域提取计算模型的基础上,提出了基于分块策略的聚集区域提取方法。在该方法中,针对聚集区域提取过程中的每个步骤进行时间复杂度的优化,包括素描图分块获取、候选聚集区域素描线段和聚集区域分块提取。实验结果表明,所提出的方法显着减少了大场景SAR图像聚集区域提取的时间。(本文来源于《西安电子科技大学》期刊2018-06-01)

刘义红[5](2018)在《一种基于视觉记忆的图像特征提取及语义标注方法》一文中研究指出该论文利用人类视觉记忆的工作机制和机理,提出一种基于视觉记忆的图像特征提取和语义标注方法,旨在解决图像特征提取和标注问题。这种方法首先利用图像分割技术提取图像目标区域特征,再运用隐马尔可夫模型在图像区域特征与标注词、标注词与标注词之间建立联系,现实图像的自动标注。最后,在真实数据集上仿真实验,结果表明该模型有效。(本文来源于《电脑知识与技术》期刊2018年15期)

高泽宇[6](2017)在《基于语义提取的高光谱图像分类方法》一文中研究指出高光谱图像中所包含的丰富的空间和光谱信息,为高光谱图像的后续应用和处理提供了丰富的数据支持,其中高光谱图像分类又是高光谱图像应用中的一大热点。而高的光谱分辨率就为在图像中辨别不同的地物或目标提供了重要的判别信息。而传统高光谱图像分类方法中存在叁个重要的问题,其一是原始特征空间往往对于分类任务来说未必是最有效的,其二是无法充分利用高光谱图像中存在的丰富的空间信息,其叁是没有充分的利用到高光谱图像中有价值的、少量的有标记样本。为了解决这些问题,基于马尔可夫随机场模型,提出了叁种高光谱图像语义信息提取方法,利用珍贵的少量有标记样本,将所有样本从原始特征空间变换到语义空间中,结合改进的马尔可夫随机场模型为语义信息的提取提供有效的空间约束。所提出的叁种方法都在真实的高光谱数据集上进行了测试,并取得了令人满意的分类精度和可靠的鲁棒性,尤其是分类结果图的空间一致性相比于传统方法有了较大的提升。主要工作内容总结如下:1.提出了一种基于局部约束的多特征语义提取方法,该方法从原始光谱特征中提取出了多种低阶特征,并将多种特征映射到相同的语义空间,利用改进的马尔可夫随机场模型将多种特征融合,显着的增强了每个样本的判别性,并同时引入空间约束,从而使得整体分类精度和空间一致性有了较大的提升。2.提出了一种基于自适应局部和非局部约束的语义提取方法,针对第一个工作进行了局部自适应邻域和加权非局部邻域方向上的改进,该方法利用超像素分割的手段对局部邻域进行了自适应的约束,并充分利用了高光谱图像中存在着的冗余的非局部空间信息,在真实高光谱数据上的实验证明,该方法在进一步提升整体分类精度的同时,还提高了鲁棒性,使得分类方法更加可靠,普适性更强。3.提出了一种基于多层分割的目标级语义提取方法,运用了超像素的思想,将高光谱图像进行多层分割,将最高级分割得到的每一个超像素块认为是一个目标,该目标内所有样本属于同一个类别,同时利用改进的马尔可夫随机场模型引入近邻约束和同属约束来提高方法性能。该方法摈弃了传统的像素级分类思想,将分类目标由像素级转换到目标级,大大提升了方法的鲁棒性和空间一致性,有效减少了方法的时间复杂度。(本文来源于《西安电子科技大学》期刊2017-06-01)

史天意[7](2017)在《刑侦现勘图像特征提取与语义标注技术研究》一文中研究指出在当前的国内公共安全领域中,基本上仍然采用纯手工的方式对刑侦现勘图像进行标注,这种方式不仅效率低下,并且带有强烈的主观性,针对这一现状,本文在阅读大量国内外参考文献的基础上,围绕图像特征提取和语义标注,提出了一些自己的改进方法,期望能够实现刑侦现勘图像的自动语义标注,减轻公安干警的工作强度。首先深入研究了颜色和纹理两种底层的图像特征,在这两种特征的基础上,通过加入不同的权值系数,提出了融合的特征提取算法。经过大量的实验,将实验结果中表现最好的权值作为融合特征提取算法的参数,以之为基础,借鉴图像分类思想,将图像语义标注问题转化为图像分类问题,通过特征直方图相似度对比的方式实现图像分类,进而实现刑侦现勘图像的语义标注。实验结果表明,融合的特征算法比两种单独的特征算法对于图像语义标注准确率有明显提高。然后对SIFT和SURF特征进行了研究,针对SURF特征在图像的尺度和旋转变化方面表现不够理想的情况,借鉴SIFT特征的思想,以SURF特征为基础,结合高斯金字塔模型,提出了 GP-SURF特征提取算法。核心思想是在尺度空间构造阶段采用图像尺寸改变的高斯差分金字塔,模拟人眼由远及近视物这种图像尺度改变的情况,期望能够克服图像尺度和旋转变化的影响,改善刑侦现勘图像的特征表示。实验结果表明,GP-SURF特征明显提高了刑侦现勘图像的语义标注准确率。接着深入研究了词袋模型,借助这一模型,将提取的图像特征采用一种聚类算法进行聚类,构成视觉单词,视觉单词的集合组成视觉词典,然后通过支持向量机对其进行训练,得出各类图像的分类超平面,接着以两两比较的方式构造了支持向量机分类器,通过这个分类器对图像进行分类和标注,从而实现了一种图像语义标注模型。通过实际的实验过程,验证了该图像语义标注模型的有效性。最后设计实现了一个“案件图像管理与检索系统”,将提出的颜色和纹理融合特征与GP-SURF特征再次融合,得到再融合特征HL-GS,以此特征为基础,通过再融合特征语义标注模型实现了刑侦现勘图像的语义标注,并且将其应用到了“案件图像管理与检索系统”中的图像语义标注模块和图像检索模块。(本文来源于《西安工业大学》期刊2017-05-05)

王凤姣[8](2016)在《图像语义多特征的融合提取方法》一文中研究指出针对传统的多融合特征方法对图像特征提取准确率不高的缺点,本文运用了串行特征融合和并行特征融合的结合的思想提出本文的M特征提取方法,它是一个非常有效的基于核函数组合的多特征融合分类模型。对图像颜色、纹理及形状特征中的显着特征提取出来并采取本文融合方法获得了本文需要的融合特征即M特征。基于以上的思想基础,本文设计了对比试验,实验结果证明本文的算法效果达到提取较高准确率的语义。(本文来源于《电子技术与软件工程》期刊2016年19期)

谢昱锐[9](2016)在《图像的语义信息提取与分类方法研究》一文中研究指出图像语义信息提取与分类是计算机视觉领域的关键课题。随着数字媒体应用的不断发展,从复杂的多媒体数据中获取语义信息,实现图像内容的有效理解变得日趋重要。在过去数年中,众多研究工作在视觉特征描述、对象模型构建及强监督学习等核心方面取得了一定进步。然而,由于公认存在的语义鸿沟问题,现有方法依旧在语义模型学习、关联信息分析、弱监督学习及判别性特征构建等关键问题上进展缓慢。针对上述亟待解决的问题,本文开展了图像语义信息提取与分类方法的研究。第一,传统超像素方法难以获取图像局部区域语义内容,以及存在复杂参数调节的缺陷。针对该问题,提出了一种基于判别性稀疏表示的语义超像素提取方法。该方法引入信号稀疏重构模型,转化图像语义超像素的提取为图像分解问题。方法中将基于表示系数的判别性正则化项、稀疏模型中的数据重构项及表示系数稀疏性约束统一到单一目标函数,并实现了联合优化求解。提出方法一方面增强了图像局部区域的语义性。另一方面,也能避免繁琐的算法参数调节过程。该方法在对象语义模型构建方面拓展了现有超像素提取算法。第二,针对单幅图像语义信息匮乏的问题,进一步对图像局部区域语义信息提取方法进行研究,提出了一种利用多幅图像间关联约束的协同语义超像素生成方法。该方法挖掘多幅图像具有一致性的对象共现信息,以引导图像局部语义区域的提取。方法中提出了一种基于图匹配代价及邻接超像素外观相似性的区域融合准则,以通过引入图匹配理论解决图像超像素的匹配问题,最终有效提取图像局部区域语义信息。该方法一方面扩展了现有基于图像局部兴趣点的图匹配模型。另一方面,也为当前图像局部区域语义信息的获取提供了一种新思路。第叁,依据上述图像局部区域语义信息的提取方法,进一步研究图像对象区域语义信息的获取问题。针对单一图像语义信息不足的限制,提出基于多幅图像的对象区域语义信息提取方法。该方法利用同类别语义对象具有的外观一致性,引入多幅图像间对象信息的关联约束,以转化语义对象的检测为判别性特征子空间学习及窗口定位问题,最终提高了图像对象区域语义信息的获取能力。此外,现有对象检测算法利用已训练模型,存在仅能识别特定类别对象的局限性。针对该问题,研究了一种基于中高层对象知识及图像底层视觉特征的对象性检测方法。该方法提供了一种获取图像对象区域语义信息的新框架,并能适用于一般类别对象的检测任务。第四,针对基于强监督对象检测方法中,人工标注信息匮乏的问题,文中利用不同类别对象部件几何结构的分享性,研究了一种基于弱标注信息的语义部件学习方法。方法中利用判别性聚类算法,实现了不同对象类别具有分享能力语义部件检测器的挖掘。提出方法无需对象部件强监督信息及能识别不同类别语义对象。该方法增强了对象检测算法的适用性,并为进一步图像的理解提供了更具语义信息的对象区域。第五,依据上述图像局部区域及对象区域语义信息提取方法的研究内容,文中进一步对图像整体语义信息的提取问题进行研究,最终解决图像分类问题。现有基于视觉字典学习的图像分类方法中,由于均一地对待所有样本数据,存在难以获取判别性语义模式的不足。针对该问题,本文提出在特征子空间学习过程中,挖掘代表性视觉样本,以提高图像特征的语义判别性。此外,提出一种基于小波变换的特征空间分解模型,实现了对判别性视觉元素的逐步挖掘,最终能增强图像整体描述的语义性。该字典学习模型提供了一种获取判别性语义模式的新方式。第六,图像整体语义描述在图像分类问题中发挥着重要作用。然而,当前基于视觉字典的图像分类方法未探索字典单词间的关联性,因此削弱了视觉字典对图像语义信息的描述能力。针对该问题,文中首先提出一种判别性类特定字典学习模型,通过引入字典单词的分享特性,建立了各字典单词间的关联。方法中将基于表示系数的一致性约束、系数组稀疏正则化项统一到单一目标函数,并实现了联合优化求解,最终能有效挖掘具有共现能力的字典单词。为进一步探索字典单词间的关联约束,本文提出一种基于过完备字典及紧致性字典学习的优化模型。该模型通过嵌入的选择矩阵,构建了字典单词间的约束关系。最终通过以上模型提取的视觉字典,能增强图像特征的语义判别能力。该方法提供了一种挖掘字典单词间关联性的有效途径。(本文来源于《电子科技大学》期刊2016-09-26)

罗世操[10](2016)在《基于深度学习的图像语义提取与图像检索技术研究》一文中研究指出随着移动互联网技术的飞速发展和智能手机广泛普及,用户每天都会上传分享海量的图像。如何让用户在海量的数据中准确地找到自己真正需要的信息,让企业有效地整合其庞大的图像数据资源,是当前很重要的研究课题。然而,传统的基于内容的图像检索技术是基于图像底层视觉特征的,和人对图像的认知存在着巨大的“语义鸿沟”问题。因此,为了解决“语义鸿沟”问题而提出的基于语义的图像检索成为图像检索领域中急需解决的关键问题之一。深度学习是在借鉴人脑视觉机制的基础上发展起来的,和人脑视觉机制一样,也是逐层迭代、逐层抽象的过程。深度学习最大的优势是可以自主学习图像特征,从最底层的方向边缘特征到物体结构特征直至更抽象的特征。针对语义鸿沟问题,本论文基于深度学习理论,构建一个从图像底层视觉特征到高级语义特征逐层迭代、逐层抽象的深度网络映射模型,旨在减小语义鸿沟,得到图像语义特征提取系统,并深入研究图像语义相似性度量,为大规模图像自动标注提供良好的基础,实现基于语义的图像检索技术,真正有效地利用海量的图像信息资源。本论文的主要工作如下:(1)针对图像检索中语义鸿沟问题,将深度学习应用到图像语义特征提取中,构建图像底层视觉特征到高级语义特征逐层迭代、逐层抽象的映射模型。(2)针对标签数据资源有限、无法支撑起深度网络训练的现实情况,提出了一种无监督的深度学习算法。先利用稀疏降噪自动编码器无监督地学习得到卷积核(对应于视觉机制中的感受野),然后利用迁移学习理论,把学习得到的卷积核传递给卷积神经网络。对于卷积核的个数和池化尺度对于图像分类准确率的影响做了深入研究。同时,采取了多级分类器级联的方法来提高分类准确率。若移除最后分类器模块,则可以把其当成一个图像语义特征提取器,根据图像相似性度量方法,可以得到各图像之间的相似度,实现快速图像检索。(3)基于深度学习理论,提出了一种朴素的基于深度学习的图像标注方法。利用训练好的深度卷积神经网络提取待标注图像的语义特征,然后利用相似性度量得到基准库中最相近一些的图像,根据这些图像的自带标签对待标注图像进行语义标注。在综合考虑加大网络深度能够提高网络抽象能力和随之带来的“梯度弥散”问题上,结合现有的数据集,在深度卷积神经网络中引入了多级特征级联的方式,从而提高系统的鲁棒性,提高语义标注的准确率。(4)最后,根据上面的研究设计了一个基于深度学习的图像语义提取和检索的原型系统。(本文来源于《东华大学》期刊2016-01-01)

图像语义提取论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

随着互联网不断地飞速发展,网民数量激增,人们的社交模式也逐渐发生了改变,从线下迁移到线上,人们在线下进行生活和工作的同时,也在线上精心经营着第二自我。具有相同兴趣的网民聚集在一起,组合成为虚拟社区,在虚拟社区上,大部分的内容都是用户所产生的,这些内容称为用户生成内容(User Generated Content,UGC)。UGC是互联网海量数据的重要来源,蕴含丰富的应用价值,是大数据时代发展的前提。但是UGC本身具有一定的缺点,随着社会化媒体的不断发展以及互联网技术的不断提高,造成了海量的UGC涌现,海量的UGC会放大UGC本身的缺点,并导致从UGC中提取出用户需要的信息和知识变得异常困难,目前关于此问题的研究仅集中于文本领域。尤其是当前UGC的表达方式从单一的文本转变为文本和图像的模式,然而,并无直接针对于图文结合内容的研究方法,如果针对于图文结合的UGC内容只使用关于文本方面的研究,会造成文本可用信息不足以完全表达原始意思,同时衡量内容的效果不如真实影响。那么,如何应用图像特征解决图文结合的UGC中文本信息不足是亟待解决的问题。本文的研究以虚拟社区中图文结合的UGC内容为研究对象,根据图像的语义理解理论,逐步地从图像的视觉层、对象层和概念层中提取及量化语义知识,并逐步地从如何考虑图像信息、到图像信息作为辅助信息、最后将图像信息和文本信息一并作为主要信息入手,同时解决目前虚拟社区中存在的内容水质、信息噪声和主题不符等问题。本文的研究对现有的图像信息提取及与文本的结合研究作了进一步地拓展,并对于图像不同层次语义知识的量化方式进行了探索和创新,为今后多媒体的知识提取及量化的研究并做了铺垫。具体研究工作如下所示:(1)基于图像语义理解理论,将图像视觉层的特征语义计算并量化,同文本等特征一并研究图文结合的UGC内容中添加图像的影响,并解决在图文结合的方式下,如何考虑图像信息解决UGC内容质量评估的问题。在真实的虚拟社区数据集上,该量化方法表现良好。该研究的指标选择结果为后续研究的图像筛选作了指导;(2)基于图像语义理解理论中视觉层的特征语义的指标选择方法,将图像对象层特征语义量化为主观评级和客观比例的方式,并将提取出的对象层信息作为辅助信息,解决文本信息作为主要信息时出现的数据稀疏性问题。在真实的虚拟社区数据集中,添加了图像信息的推荐方法较未添加时更精确。该研究的信息提取、加工处理结果为后续研究的图像学习模型作了铺垫;(3)基于图像语义理解理论中视觉层特征语义的指标选择方法和和对象层特征语义的信息量化方法,建立与图像概念层特征语义的映射关系,同时将图像概念层特征语义文本主题概率分布之间学习并发现联系,通过优质的内容训练模型后可以得知图像与文本主题的匹配度,用以解决图文结合的UGC内容中图文主题不符的问题。在真实的虚拟社区数据集中,添加了图文匹配度的质量预测方法较未添加时更准确。该研究的语义映射方法及验证作为最终解决图文深度结合UGC的语义知识提取方法。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

图像语义提取论文参考文献

[1].李瀚超,蔡毅,王岭雪.全局特征提取的全卷积网络图像语义分割算法[J].红外技术.2019

[2].宋忆宁.图文结合UGC的图像语义知识提取方法及应用研究[D].华南理工大学.2019

[3].董永峰,杨雨?,王利琴.基于多尺度特征提取和全连接条件随机场的图像语义分割方法[J].激光与光电子学进展.2019

[4].朱晓东.用于SAR图像语义分割的聚集区域提取方法的研究[D].西安电子科技大学.2018

[5].刘义红.一种基于视觉记忆的图像特征提取及语义标注方法[J].电脑知识与技术.2018

[6].高泽宇.基于语义提取的高光谱图像分类方法[D].西安电子科技大学.2017

[7].史天意.刑侦现勘图像特征提取与语义标注技术研究[D].西安工业大学.2017

[8].王凤姣.图像语义多特征的融合提取方法[J].电子技术与软件工程.2016

[9].谢昱锐.图像的语义信息提取与分类方法研究[D].电子科技大学.2016

[10].罗世操.基于深度学习的图像语义提取与图像检索技术研究[D].东华大学.2016

标签:;  ;  ;  ;  

图像语义提取论文-李瀚超,蔡毅,王岭雪
下载Doc文档

猜你喜欢