大规模计算论文-林珑,李建杰

大规模计算论文-林珑,李建杰

导读:本文包含了大规模计算论文开题报告文献综述及选题提纲参考文献,主要关键词:大规模电力系统,病态潮流,微分求解模型,连续牛顿法

大规模计算论文文献综述

林珑,李建杰[1](2019)在《基于微分求解模型的大规模电力系统病态潮流计算》一文中研究指出电网规模不断扩大,负荷加重,对电力系统病态潮流计算提出新的要求.传统方法受计算规模限制,无法满足全网一体化分析需求.针对此问题,结合连续牛顿法(Continuous Newton's Method, CNM)的数学原理,提出了潮流计算的微分求解模型,将非线性的潮流方程组转换为常微分方程组;应用一定的数值积分方法,优化重构求解模型,在CPU架构下设计并实现了大规模病态潮流计算.算法应用于多个包含上千节点的大规模系统算例,通过对收敛性和效率的测试分析,准确性和实用性得以验证.(本文来源于《叁峡大学学报(自然科学版)》期刊2019年06期)

吴罗兰,张闯,陈俊慧,许忠义,朱泽伟[2](2019)在《考虑大规模风电并网的电力系统二次调频容量实时计算方法》一文中研究指出为合理解决风电并网后系统所需AGC备用容量的预测问题,使用极大熵谱分析法对风电波动进行频谱分析,确定了关键时间尺度分量后用滚动平均法对关键时间尺度的风功率波动分量进行筛选,对风电并网引起的AGC调频容量需求进行了量化计算。本文提出了一种基于评价标准修正背景下,综合考虑风电并网、负荷波动、机组计划出力以及联络线计划出力导致的调频容量需求,最终计算得到控制区域AGC调频容量需求的方法。最后以我国西北某区域电网实际的机组和负荷数据为算例,进一步证明了该方法的优越性及经济性。(本文来源于《电工材料》期刊2019年05期)

周光睿[3](2019)在《多轨分割网络大规模节点计算效率控制仿真》一文中研究指出当前方法无法高效提升节点计算效率同时降低计算能耗,提出基于HNCTC的多轨分割网络大规模节点计算效率控制方法。以节点度、网络链路、网络密度、聚类系数和熵等影响因素分析为依据,引入HNCTC算法实现节点计算效率控制。考虑到网络运行时各节点承受的负载不同,规定条件下,簇头在簇内消耗的能量大致相同,距离计算簇头比较近的数据簇能量消耗比较大,全网能量消耗不均等,采用非均匀最小均方减法分簇,依据簇内节点位置信息筛选出簇头,基于新簇能量消耗信息确定更新簇头能量阈值,通过减少计算节点在簇内能耗,均衡参与计算的数据簇负载,根据均衡数据簇负载调整节点计算效率。在簇头节点收到一帧数据之后进行数据计算融合,将融合后的数据传输至下一个簇头节点,判断簇头节点能量是否低于能量阈值,假设为是,则启动簇头更新机制,进入新一轮节点计算效率控制流程。实验结果表明,上述方法节点计算效率和能耗控制效果均优于当前方法。(本文来源于《计算机仿真》期刊2019年08期)

郑东旭,陈阳,王勇[4](2019)在《基于朵云的大规模移动云计算系统》一文中研究指出移动云计算是解决移动计算中包括电池寿命、处理能力和存储容量等缺陷的最佳方案;为了减少移动设备的功耗和网络时延,提出了一种基于朵云的大规模移动云计算系统CMCC (Cloudlet-based Mobile Cloud Computing);使用多个朵云分布式部署,移动设备通过WiFi接入朵云进而实现和云端服务器相连接;该方案能够提供足够大的覆盖区域,能够有效满足移动设备的移动需求,并有效降低移动设备移动位置,减少广播宽带通信需求;仿真实验结果证明,CMCC能够有效减少移动设备功率消耗和通信延迟。(本文来源于《计算机测量与控制》期刊2019年06期)

张洁[5](2019)在《云计算平台中大规模电子航海信息全局监控系统》一文中研究指出在大数据环境背景下,针对传统船舶电子信息监控系统,存在多样数据融合性计算能力差,数据多样整合处理时间长,导致出现全局监控力不足的问题。基于大数据处理技术,提出基于大数据融合的船舶动态电子信息全局监控系统设计。根据大数据融合的技术要求,创建船舶多样数据采集融合架构,通过搭建的硬件对船舶多项数据进行采集,配合引入的纵深融合算法,利用大数据融合技术对采集的多样数据进行深度融合计算,实现信息全局一体化监控。通过对比实验数据,证明设计的监控系统,在解决传统监控系统数据融合问题上,具有显着效果,满足设计需要。(本文来源于《舰船科学技术》期刊2019年12期)

吴春毅[6](2019)在《云计算下针对大数据的大规模任务处理关键问题研究》一文中研究指出随着当前数据规模与种类的日益增长,大数据分析处理问题已经成为研究热点。在当今信息化与数字化社会中,互联网、物联网与云计算技术的迅猛发展使得数据充斥于各领域并成为一种全新的自然资源。人们需要对这些数据进行合理高效地利用来发掘其中具有一定价值的信息,从而提高生活工作效益。如今各领域数据量急剧增加同时数据结构趋于复杂化,使得大数据分析处理问题面临诸多挑战。大数据对数据处理的大规模性、实时性以及有效性提出了更高要求,这就需要根据大数据所具备诸多特性对传统数据分析处理的方法与模式进行变革,从而实现高效的大数据收集、存储、管理、分析以及处理等重要环节。近年来云计算技术的兴起与卓越发展为大数据分析处理提供了重要支持与保障。云计算弹性可扩展等特性有利于多用户共享、大数据存储以及大数据处理。大数据处理一般处理过程中的数据采集、数据预处理、数据分析与挖掘在当前云计算基础之上能够顺利实现。来自用户的源源不断且种类繁多的数据处理任务使得云计算下针对大数据的大规模任务处理问题逐渐成为大数据分析处理中的重要问题之一。云计算下针对大数据的大规模任务处理问题研究包含基础层面任务划分、部署与调度,以及应用层面与任务相关的数据分析处理等关键环节。为实现大规模任务请求的高效处理,基础层面的任务划分、任务部署以及任务调度等环节在整个任务处理过程中起到了整个大数据分析处理任务请求的前提保障作用。本文重点关注并研究了云计算下针对大数据的大规模任务处理关键问题。首先研究了多域环境下针对大数据的大规模处理方法;然后研究了针对系统长期收益的大规模任务处理方法;最后研究了针对大规模任务处理中模型在实际应用过程中对任务请求无法识别处理以及模型易过拟合的问题。本文主要贡献如下:(1)进行了针对大数据的大规模任务处理方法的归纳与总结,阐述了当前研究工作的背景意义与重点。本文介绍并分析了大规模任务处理中所面临的若干相关重要问题,并对任务处理过程中重点问题的解决方法进行了详细介绍与分析,其中包括应用大规模图像处理方法及大规模无线数据处理等相关方面方法研究任务处理的工作。(2)针对多域环境下大规模任务处理进行了研究。许多传统的基于云计算的单域任务处理方法法在一定程度上受到底层资源的类型、价格和存储位置等因素的限制,针对此问题,本文提出了一种基于多目标优化的多域环境下大规模任务处理方法,简称LTBM。该方法通过实现多域内负载均衡,有效地提高了资源利用率,促进了各工作节点进行协调,提高了系统整体性能。同时,通过优化通信资源,有效地降低了域间数据传输所消耗的带宽资源和数据延迟。为了实现系统整体负载均衡和通信带宽资源成本最小化的多目标优化,本文提出了一种基于多目标粒子群的多域虚拟网络映射算法。基于帕累托支配理论,提出一种快速有效的非支配选择方法,用于快速获取最优虚拟网络映射方案集。我们设计并利用拥挤度比较法来获得最终的唯一解。柯西变异操作被用来避免局部最优。实验结果表明,LTBM能够有效地减少计算资源和带宽资源的额外消耗,同时大大减少任务处理时间。(3)研究了针对系统长期收益的大规模任务处理方法。许多研究工作通常利用处理一般规模任务所用的常规方法及体系结构去实现大规模任务处理,这会受到计算能力、数据传输等因素的限制。针对此问题,本文提出了一种基于胖树结构并结合深度神经网络模型和强化学习的大规模任务处理方法,简称LTDR。它从长远利益出发,通过虚拟网络映射实现大规模任务部署。针对当前物理节点和任务请求,通过特征提取来描述节点和任务的状态及其内部关联,从而构造模型输入,同时降低原始数据维度。我们设计并训练一个基于历史数据和卷积神经网络的深度网络模型用于最优节点映射决策。同时,基于与环境的不断交互和试探,我们所利用的Q-learning通过评估来自环境的反馈,实现对虚拟链路映射决策的优化。我们采用多Agent强化学习方法实现这一过程。整个网络可被看作一个多Agent系统。因此,每个节点可被看作一个具有自主学习能力去探索其下一跳节点的Agent。马尔可夫决策过程可用来描述整个数学模型。我们引入分布值函数来探索最优虚拟链路映射决策,最终实现最优虚拟网络映射。针对大数据的大规模任务被部署到最优物理节点进行处理,避免了节点和链路过载,提高了系统整体资源利用率。实验结果表明,LTDR方法在满足大规模任务请求的同时,能够显着提高系统物理资源利用率以及云数据中心的长期收益。(4)针对大规模任务处理中模型在实际应用过程中对任务请求无法识别处理以及模型易过拟合的问题进行了研究。由于一些基于深度神经网络的大规模任务处理方法往往是基于历史数据的,这就使得在实际应用过程中存在着许多依靠以往知识和经验无法识别处理的任务。同时在利用深度学习进行复杂结构学习过程中又极易导致模型过拟合的产生。针对此问题,本文提出了一种改进的基于自适应深度学习与强化学习的大规模任务处理方法,简称为Tard。首先,我们设计一种基于自适应Dropout深度计算模型的虚拟网络映射方法以实现大规模任务部署。它采用模型融合的方式有效提升模型效果,通过对多个子模型的输出进行平均,避免了模型训练出现偏差,达到防止模型过拟合的目的,使得模型能够做出正确的虚拟节点映射决策。接着,针对训练集中某些数据(任务请求)没有相应标签的问题,基于强化学习思想,我们利用策略梯度方法以及反向传播算法来进行模型训练。在训练阶段,一种探索性方法被设计用来探寻最优解,同时一种贪婪机制被引入来对强化学习Agent的效用进行评价,使得虚拟节点映射方案能够不断向着系统收益更高的方向自我进化,最终实现了最佳虚拟网络映射决策,从而在大数据环境下将大规模任务部署到适当的底层网络中的任务处理节点中实现任务的高效执行。实验结果表明,Tard方法能够在满足大规模任务请求的前提下有效避免模型过拟合并提高实际应用过程中的任务识别处理能力。(本文来源于《吉林大学》期刊2019-06-01)

姜茜[7](2019)在《基于分布式图计算的大规模程序静态分析算法与系统》一文中研究指出程序静态分析技术被广泛应用于计算机程序设计与开发的诸多环节,包括错误检测、代码优化、测试等。基于CFL(Context-Free Language)可达的过程间程序静态分析是一种具有较高通用意义的过程间静态分析方法,该方法本质上是一种图的可达性计算问题。尽管程序静态分析方面的研究取得了很多进展,但是由于硬件资源和传统方法的限制,单机计算已难以支撑日益增长大规模图数据的高效处理,从而导致了静态分析方法的性能低效且可扩展性较低。因此对大规模现代软件进行复杂的过程间分析仍然具有挑战性。针对大规模程序静态分析性能低效和可扩展性低的问题,本文提出了一种基于分布式图计算模型的高效可扩展的并行化大规模程序静态分析方法,并设计实现了高效可扩展的分布式大规模程序静态分析系统。本文的主要研究工作和贡献点如下:(1)将基于CFL可达的程序静态分析问题抽象为大规模图计算问题,基于数据并行框架研究设计了一种新型的并行化传递闭包算法和Join-Process-Filter计算模型,基于该算法和计算模型,设计实现了一个分布式离线全量程序静态分析系统,分别提出了算法级和系统级优化,并设计了具有压缩效果的数据结构。(2)在离线全量分析系统的基础上,进一步研究设计了支持小批量代码更新的在线增量程序静态分析系统。研究提出了叁角形计数法以支持对图拓扑的不断更新,还改进了离线系统的数据结构以适用在线分析,且对于小批量更新可能触发的大规模计算,设计实现了预测和计算模式的自动切换机制。(3)基于大数据处理平台Spark、分布式文件系统HDFS和分布式内存数据库Redis,设计实现了一套集计算、存储、查询为一体的大规模分布式程序静态分析系统和框架。设计实现的程序静态分析系统具有较好的通用性,能够支撑所有可表达为CFL可达性问题的静态分析任务。(4)在真实大规模软件数据集上进行的性能实验表明,本文实现的离线全量程序静态分析系统具有良好的性能和可扩展性,优于现有的最先进的分析工具。在相同数据集上进行增量更新的实验表明,对于数量级在1000以内的批量更新,在线分析系统可实现秒级响应,具有一定的实时性。(本文来源于《南京大学》期刊2019-05-24)

张天雨[8](2019)在《面向大规模计算系统的I/O行为分析工具》一文中研究指出高性能计算的飞速发展使得超级计算机的计算能力得到了大幅度的提升,然而,与之对应的是超级计算机的I/O性能发展相对缓慢。同时,超级计算机中的I/O子系统对于应用来说访问路径长、高度竞争,导致其总体资源利用率难以提升,应用体验不好。对于目前的许多科学计算应用来说,I/O性能而不是计算能力成为了性能瓶颈。因此,在超级计算机这样复杂的架构上分析大规模应用的I/O行为,同时及时对系统进行I/O性能异常检测,成为了优化大规模应用I/O性能,提升系统资源利用率的关键。首先,针对神威太湖之光的I/O子系统,本文设计和实现了一套面向大规模计算系统I/O行为分析工具,它主要包括叁个部分:面向应用的I/O模式分析工具,面向应用的前后端I/O性能数据分离工具,以及自动化的I/O性能异常检测工具。通过面向应用的I/O模式分析工具能够了解应用的I/O模式和性能并触发相应的优化;通过面向应用的前后端性能数据分离工具查看数据在太湖之光存储架构上不同部分的性能,评估系统竞争情况和利用率;借助自动化的性能异常检测工具能够实时检测系统的性能异常,更好地管理系统资源。其次,本文展示和分析了神威太湖之光上的I/O性能数据。具体包括:本文分析了作业的访问数据量及I/O模式,找到了低效的I/O模式,并根据低效的I/O模式对应用程序开发人员和管理员分别提出了优化的建议;分析了性能异常检测的结果,找到了太湖之光上曾经发生过的性能异常并给出了根因诊断,比如高干扰型应用的影响、性能异常节点的影响等,这为管理员减少系统资源冲突、合理配置和规划系统资源带来了巨大帮助。经过统计,受低效I/O模式影响的作业所占的核时高达上百万;同时,本文中的性能异常检测工具检测出的性能异常的作业所占核时超过千万。因此,如果借助本文的工具,改善应用低效的I/O模式,同时利用性能异常检测工具提前发现和诊断性能异常,并作出规避异常的相应措施,能够为太湖之光节省上千万的核时资源。本文中的I/O行为分析工具已经在生产环境下投入使用。(本文来源于《山东大学》期刊2019-05-20)

黄岸媚[9](2019)在《潼湖大数据产业园昨动工》一文中研究指出项目名片潼湖大数据产业园潼湖科技小镇的重要组成部分,被列入广东省第二批省级大数据产业园培育单位,同时也是华南地区超大规模的绿色云计算数据中心。投产后,自身年产值可达6亿元,承载的云计算业务年产值可达30亿元。产业园里的潼湖大数据中心规划用(本文来源于《惠州日报》期刊2019-05-18)

王万良,臧泽林,陈国棋,屠杭垚,王宇乐[10](2019)在《大规模云计算服务器优化调度问题的最优二元交换算法研究》一文中研究指出随着云计算产业的不断兴盛,云计算服务器的合理管理与科学调度成为了一个重要的课题。在模型方面,提出了一个新的携带亲和约束与反亲和约束的混合整数规划(MIP)模型,并将其用于描述大规模云计算服务器调度问题。考虑到求解大规模MIP问题的时间成本,在分枝定界法与局部搜索算法的基础上提出了最优二元交换算法。该算法通过不断地从完整的调度问题中提取MIP子问题,并使用分支定界法解决该子问题的思想,不断地对服务器调度方案进行优化,从而使调度方案接近最优解。实验结果表明,所提算法在测试数据集ALISS上与其他方法相比有较大优势,在完成相同任务的情况下,可以使云计算中心的资源消耗减少4%以上。(本文来源于《通信学报》期刊2019年05期)

大规模计算论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

为合理解决风电并网后系统所需AGC备用容量的预测问题,使用极大熵谱分析法对风电波动进行频谱分析,确定了关键时间尺度分量后用滚动平均法对关键时间尺度的风功率波动分量进行筛选,对风电并网引起的AGC调频容量需求进行了量化计算。本文提出了一种基于评价标准修正背景下,综合考虑风电并网、负荷波动、机组计划出力以及联络线计划出力导致的调频容量需求,最终计算得到控制区域AGC调频容量需求的方法。最后以我国西北某区域电网实际的机组和负荷数据为算例,进一步证明了该方法的优越性及经济性。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

大规模计算论文参考文献

[1].林珑,李建杰.基于微分求解模型的大规模电力系统病态潮流计算[J].叁峡大学学报(自然科学版).2019

[2].吴罗兰,张闯,陈俊慧,许忠义,朱泽伟.考虑大规模风电并网的电力系统二次调频容量实时计算方法[J].电工材料.2019

[3].周光睿.多轨分割网络大规模节点计算效率控制仿真[J].计算机仿真.2019

[4].郑东旭,陈阳,王勇.基于朵云的大规模移动云计算系统[J].计算机测量与控制.2019

[5].张洁.云计算平台中大规模电子航海信息全局监控系统[J].舰船科学技术.2019

[6].吴春毅.云计算下针对大数据的大规模任务处理关键问题研究[D].吉林大学.2019

[7].姜茜.基于分布式图计算的大规模程序静态分析算法与系统[D].南京大学.2019

[8].张天雨.面向大规模计算系统的I/O行为分析工具[D].山东大学.2019

[9].黄岸媚.潼湖大数据产业园昨动工[N].惠州日报.2019

[10].王万良,臧泽林,陈国棋,屠杭垚,王宇乐.大规模云计算服务器优化调度问题的最优二元交换算法研究[J].通信学报.2019

标签:;  ;  ;  ;  

大规模计算论文-林珑,李建杰
下载Doc文档

猜你喜欢