隐层结构论文-陈远根

隐层结构论文-陈远根

导读:本文包含了隐层结构论文开题报告文献综述及选题提纲参考文献,主要关键词:极限学习机,动态调整,前馈神经网络,凸最佳增长

隐层结构论文文献综述

陈远根[1](2015)在《基于凸最佳增长极限学习机的隐层结构动态调整方法研究》一文中研究指出极限学习机作为一种基于广义的单隐层前馈神经网络的机器学习算法,由于其在回归问题和分类问题上都有很好的执行效果,因而近年来不论是在国内还是在国外都受到了越来越多的关注。众所周知,确定极限学习机的结构对其应用的成功起着至关重要的作用。而极限学习机结构的确定问题最根本的还是隐藏层结构的构建问题,获得一个更小规模的隐藏层结构可以为极限学习机带来更大的速度提升。本文在仔细剖析当前经典的极限学习机结构调整的相关算法之后,结合基于凸最佳增长的极限学习机理论(Convex Incremental Extreme Learning Machine,CI-ELM),提出了可修剪的凸最佳增长极限学习机(Pruned-Convex Incremental Extreme Learning Machine,PCI-ELM)。并且,为了确保所构建的单隐层神经网络有着较好的泛化性能,进一步对PCI-ELM进行改进,在神经元添加过程中引入筛选策略,从而提出了增强的可修剪凸最佳增长极限学习机(Enhanced Pruned-Convex Incremental Extreme Learning Machine,EPCI-ELM)。为了使得单隐层前馈神经网络的调整更加灵活,所得到的隐藏层结构最紧凑,本文摆脱了对单个神经网络的逐步构建最终形成目标神经网络的形式,而是提出了一种更具动态性的隐藏层结构确定算法:动态凸最佳增长的极限学习机(Dynamic Convex Incremental Extreme Learning Machine,DCI-ELM)。DCI-ELM 充分比较和组织当前所有引入的隐藏层神经元,从中寻找最紧凑的隐藏层结构。通过使用当前已知的隐藏层神经元,在构建过程中筛选出每个规模下最优的隐藏层结构。这种筛选具有竞争性,相同规模下,只有更好学习精度的神经网络会被保留用于寻找包含更好的更大规模隐藏层结构神经网络。并且,每个规模的神经网络在引入新的神经元时,都会与训练目标比较,拥有最简隐藏层结构的神经网络将最终胜出。最后,通过实验测试了 PCI-ELM、EPCI-ELM以及DCI-ELM在极限学习机隐藏层结构优化方面的效果。实验结果表明,PCI-ELM、EPCI-ELM以及DCI-ELM能够很好隐藏层结构进行控制,使得构建的单隐层前馈神经网络更加紧凑。(本文来源于《东北大学》期刊2015-06-01)

周维华[2](2013)在《RBF神经网络隐层结构与参数优化研究》一文中研究指出径向基函数神经网络(也称为RBF神经网络)是应用非常广泛的一类人工神经网络。在RBF神经网络建模中,其隐含层神经元的个数、相关参数(即中心点、宽度)、以及输出层权值对模型的性能具有重大的影响。如何构建一个合理的隐含层网络结构和最佳的网络参数,是RBF神经网络改进的难点。本文将针对RBF神经网络所面临的隐层结构与参数优化问题,提出了基于粗糙集的K均值(Rough K-Means)聚类算法,和基于最大似然估计(EM)聚类算法和多元线性回归(MLR)结合的优化策略(EM&MLR算法)。采用这两种聚类算法可以达到简约神经网络的结构,调节相关神经元的参数,减少神经网络的冗余信息,防止过拟合,最终改善预测性能的目的,并将两类改进的RBF神经网络应用到初顶石脑油干点软测量中去。结果显示,与一般性的聚类算法相比,这两个聚类算法能够很大的提高RBF神经网络性能,同时,基于EM&MLR算法的RBF神经网络又比比基于Rough K-Means的同类改进RBF神经网络的优化算法相比,不仅是在结构上还是和精度上都获得更进一步提高。(本文来源于《华东理工大学》期刊2013-12-09)

蔡兵[3](2007)在《BP神经网络隐层结构的设计方法》一文中研究指出针对神经网络隐层结构设计问题,介绍了几种神经网络隐层层数和各层节点数的设计方法.此方法计算量小,具有很高的实用参考价值.(本文来源于《通化师范学院学报》期刊2007年02期)

范佳妮,王振雷,钱锋[4](2005)在《BP人工神经网络隐层结构设计的研究进展》一文中研究指出指出BP人工神经网络隐层结构的确定,尤其是隐层神经元数目的选择历来是研究的热点。针对目前解决这一问题尚缺乏严格的理论依据,设计者多凭经验而定,介绍了用来优化设计隐层结构的可行方法,纵览了现有多种设计研究成果,从而探讨了新的设计方向。分析了网络隐层结构优化问题的产生及其理论依据,对各种设计方法进行了详细的分类综述, 探讨各自的优势与不足,并对神经网络结构优化问题的研究和发展做了评述与展望。(本文来源于《控制工程》期刊2005年S1期)

方世良[5](1999)在《一种应用于水声目标识别的隐层结构自适应网络》一文中研究指出提出了一种隐层结构自适应学习的径向基函数网络(HSARBF)水声目标分类器.该网络可在训练中自适应调整隐层节点数和设置新增隐节点的初始权值,从而使网络输入样本的分类特征能有效地映射到隐节点输出,克服了一般RBF网隐层初始权值及隐节点数难以确定的缺陷.经对实测水声信号的识别试验表明,该网络隐层有较强的分类特征划分能力,识别率高于一般RBF网或BP网分类器.(本文来源于《东南大学学报》期刊1999年03期)

廖宁放,高稚允[6](1998)在《BP神经网络用于函数逼近的最佳隐层结构》一文中研究指出目的研究采用反向传播(BP)算法的人工神经网络用于函数逼近时的最佳隐层结构。方法以典型的n输入、单输出的多层BP网为例,在几种不同的网络隐层结构下对典型的连续函数进行逼近训练,分析各网络输出的全局误差.结果含有4个隐层的BP网具有最佳的学习收敛特性和函数逼近精度,各隐层所包含的单元数应当在10~20个之间,收敛性最差的是单隐层网,结论用于函数逼近的最佳BP神经网络应当是一个包含4个左右隐层的多层网,且各隐层中的单元数应当适中.(本文来源于《北京理工大学学报》期刊1998年04期)

李嘉禄,焦亚男[7](1997)在《叁维编织隐层结构的拓扑分析》一文中研究指出为提高复合材料预制件的机械强度,采用一种新型编织工艺.本文用拓扑分析方法,对预制件结构做了说明,并对工艺参量进行了理论预测,为设计功能复合材料和特殊结构复合材料提供了新的手段.(本文来源于《天津纺织工学院学报》期刊1997年05期)

隐层结构论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

径向基函数神经网络(也称为RBF神经网络)是应用非常广泛的一类人工神经网络。在RBF神经网络建模中,其隐含层神经元的个数、相关参数(即中心点、宽度)、以及输出层权值对模型的性能具有重大的影响。如何构建一个合理的隐含层网络结构和最佳的网络参数,是RBF神经网络改进的难点。本文将针对RBF神经网络所面临的隐层结构与参数优化问题,提出了基于粗糙集的K均值(Rough K-Means)聚类算法,和基于最大似然估计(EM)聚类算法和多元线性回归(MLR)结合的优化策略(EM&MLR算法)。采用这两种聚类算法可以达到简约神经网络的结构,调节相关神经元的参数,减少神经网络的冗余信息,防止过拟合,最终改善预测性能的目的,并将两类改进的RBF神经网络应用到初顶石脑油干点软测量中去。结果显示,与一般性的聚类算法相比,这两个聚类算法能够很大的提高RBF神经网络性能,同时,基于EM&MLR算法的RBF神经网络又比比基于Rough K-Means的同类改进RBF神经网络的优化算法相比,不仅是在结构上还是和精度上都获得更进一步提高。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

隐层结构论文参考文献

[1].陈远根.基于凸最佳增长极限学习机的隐层结构动态调整方法研究[D].东北大学.2015

[2].周维华.RBF神经网络隐层结构与参数优化研究[D].华东理工大学.2013

[3].蔡兵.BP神经网络隐层结构的设计方法[J].通化师范学院学报.2007

[4].范佳妮,王振雷,钱锋.BP人工神经网络隐层结构设计的研究进展[J].控制工程.2005

[5].方世良.一种应用于水声目标识别的隐层结构自适应网络[J].东南大学学报.1999

[6].廖宁放,高稚允.BP神经网络用于函数逼近的最佳隐层结构[J].北京理工大学学报.1998

[7].李嘉禄,焦亚男.叁维编织隐层结构的拓扑分析[J].天津纺织工学院学报.1997

标签:;  ;  ;  ;  

隐层结构论文-陈远根
下载Doc文档

猜你喜欢