多智能体机器人论文-惠州日报记者,骆国红

多智能体机器人论文-惠州日报记者,骆国红

导读:本文包含了多智能体机器人论文开题报告文献综述及选题提纲参考文献,主要关键词:洗碗机,滚筒洗衣机,智能家电,家电,黑白电视机,谁家,液晶电视,叁四,智能家居,阳台

多智能体机器人论文文献综述

惠州日报,骆国红[1](2019)在《机器包下家务活 主人去跳广场舞》一文中研究指出扫地机器人、洗碗机、滚筒洗衣机……近年来,随着人们生活水平的提高,市民的钱袋子鼓了,生活水平和生活品质明显提高,越来越多的高端智能家电走进寻常百姓家,让生活变得更美好。9月16日早上,家住市区江北鼎峰国汇山小区的曾丽娣去市场买菜回来后,将买好的菜(本文来源于《惠州日报》期刊2019-09-22)

黄涛[2](2019)在《AI加持下的地表最萌机器人到底有多智能? 优必选悟空机器人体验评测》一文中研究指出在今年的央视春晚上,6台大型仿人服务机器人惊艳亮相深圳分会场,与韩雪、关晓彤等明星和舞蹈演员同台表演歌舞《青春畅想》,引起广泛关注。殊不知,这并不是优必选的机器人第一次在春晚上登台表演,早在2016年和2018年其机器人就已登上了春晚。(本文来源于《消费电子》期刊2019年06期)

李嘉鹏,马超,孙浩,马守贤[3](2019)在《基于惯性模块的智能体感遥控机器人设计》一文中研究指出随着智能机器人的快速发展,传统的机器人控制技术越来越不能满足实际生产的复杂要求,需要更加智能的控制方法来解决这一问题。文章研究了基于惯性模块的智能体感遥控机器人设计,该设计利用DSP微处理器作为主控制器,同时利用惯性模块实现体感识别操控,利用液晶模块显示当前控制指令、机器人状态以及当前电池电量,采用LED和蜂鸣器实现提示和警报。设计的机器人具有体积小、操作简单方便、稳定性高、智能遥控、扩展性强等几项优点,基本能够满足机器人的遥控要求,特别是增加了基于蓝牙手机的操控方法,使机器人的操控更加方便简单,具有较高的应用与推广价值。(本文来源于《无线互联科技》期刊2019年05期)

钱程[4](2018)在《RoboCup机器人救援仿真中多智能体协作模型的研究与建立》一文中研究指出多智能体系统的协作是人工智能研究的热点。多智能体系统通过建立一种有效的协作模型,使得功能独立的智能体能够互相协作完成复杂的目标任务。目前,多智能体协作技术已经广泛应用于智能机器人、交通控制、制造、网络自动化与智能化、商业管理等领域。本文提出一种多智能体协作模型,并在RoboCup救援仿真平台中研究了该协作模型的具体应用,主要工作如下:第一,本文在对多智能体系统分析的基础上,针对目前协作模型存在的问题提出了一种通用的多智能体协作模型,介绍了该协作模型的整体框架结构,并描述了其协作流程。第二,研究了多智能体协作模型的叁个关键模块:任务处理模块,协商模块,协调规划模块。分析了任务处理模块对复杂任务的叁个处理步骤:任务分解、任务关联关系分析、任务重要属性处理。确定了协商模块中的协商模型及相应的协商协议和协商流程,并在通用部分全局规划的基础上设计了符合本文协作模型的协调规划模块。第叁,在RoboCup救援仿真平台中研究了提出的多智能体协作模型的具体应用。按照提出的多智能体协作模型构建了执行智能体和管理智能体结构。按照任务处理的步骤对RoboCup救援仿真系统中的任务进行了任务分解、任务关联关系分析、任务重要属性处理。同时研究了RoboCup救援仿真平台中协商模块和协调规划模块的具体应用。最后,在RoboCup救援仿真平台验证了所提出协作模型的有效性。(本文来源于《东南大学》期刊2018-06-30)

张玉[5](2018)在《人工智能体的机器人伦理研究》一文中研究指出纵观整个人类发展的历史,科技,不仅创造着新的财富,它也让一个民族国家的影响力超出了它的政治版图。科技,也不断的重构着人与自然的关系,时至今日,科技,越来越有可能成为人们的共同的财富,因为,它将应对人类生命共同体所遭遇的各种挑战。科技,不仅定义着自己,也定义着人类社会的未来。在机器人应用越来越广泛的时代背景下,人工智能技术的发展还将进一步地影响人们的工作,学习,生活。人工智能技术在带给人们利益与便利的同时,也会给人类带来更多新的伦理问题。面对这些问题,我们应该主动地反思,总结进而采取应对策略,真正使人机和谐的价值观得以实现。(本文来源于《中国社会科学研究论丛(2018卷第1辑)》期刊2018-02-01)

邵暖,刘乐[6](2017)在《基于双目视觉的多智能体机器人分布式包含控制》一文中研究指出针对具有静态领导者的多智能体机器人分布式包含控制问题,研究了一种基于耗散Hamilton理论与非线性干扰观测器(NDO)的双目视觉伺服控制方法。首先应用图论中的有向图构建机器人间的拓扑关系,使得每个跟随者能够根据邻居机器人的状态信息确定出自己的跟踪目标,并推导出一种针对动态目标点的双目视觉伺服模型。其次通过预反馈控制建立跟随者的耗散Hamilton模型,并选用NDO对系统中总的不确定项进行动态观测。再次利用互联和阻尼配置以及能量整形方法设计出鲁棒性较强的耗散Hamilton控制器,并将NDO的观测值及其观测误差的上界估计值引入该控制器中进行补偿,进而驱使跟随者最终收敛到由领导者所形成的凸包内的期望位置。最后以安装双摄像机的2自由度机器人为被控对象进行仿真研究,仿真结果验证了上述方法的有效性。(本文来源于《高技术通讯》期刊2017年Z2期)

仇国庆,李芳彦,吴健[7](2017)在《基于多智能体遗传算法的多机器人混合式编队控制》一文中研究指出提出了一种基于多智能体遗传算法的多机器人混合式编队控制方法,将多智能体系统与传统遗传算法相结合,形成了一种新的在线优化算法(多智能体遗传算法),应用到多机器人编队控制中。同时将领航跟随法与人工势场法相结合,能更有效地保持队形的稳定性、增强抗干扰能力。采用该方法进行仿真实验,并与传统机器人编队控制方法相比较,实验结果验证了所提方法的可行性和有效性。(本文来源于《青岛科技大学学报(自然科学版)》期刊2017年02期)

丁明刚[8](2017)在《基于多智能体强化学习的足球机器人决策策略研究》一文中研究指出分布式人工智能近十几年受到了广泛地关注与发展,多智能体系统也成为了研究的热点,将其强化学习相结合,可以得到多智能体的强化学习。本文以一个典型的多智能体系统即足球机器人系统为研究对象,研究了多智能体的强化学习尤其是多智能体Q学习问题及其在足球机器人决策中的应用问题。首先,介绍了课题的研究背景和现状,介绍了该课题所具有的重要的理论意义和实践意义。对多智能体系统和足球机器人系统进行了阐述。其次,研究了智能体的强化学习问题,对其基本概念与原理给予了分析。对智能体强化学习的框架模型即马尔可夫决策过程进行了研究,分析了其中的关键因素,包括回报、策略、值函数、动作探索等。具体分析了叁种强化学习算法,分别为TD算法、Q学习算法和Sarsa算法。给出了多智能体系统的描述方式,讨论了多智能体系统的强化学习的特点和方法。再次,将模拟退火算法的思想引入到智能体强化学习的动作探索策略中,得到基于模拟退火的智能体Q学习算法,为学习中动作的探索与利用提供了一个科学的解决办法,给出了基于模拟退火的智能体Q学习的算法流程。并将此算法应用到足球机器人的寻球策略学习中,对其学习空间、奖惩函数等进行了分析与设计,并利用MATLAB平台进行了仿真验证。最后,结合足球机器人决策的特点,对多智能体强化学习的角色转换和经验共享进行了分析,提出了基于角色转换和经验共享的多智能体Q学习。并将其应用到足球机器人的局部进攻策略中,利用此算法对队伍中的主机器人的动作选择策略进行学习,并利用MATLAB平台进行仿真验证。(本文来源于《合肥工业大学》期刊2017-03-01)

刘强[9](2016)在《基于智能体的多机器人系统学习方法研究》一文中研究指出与单个机器人相比较,多机器人(MRS)具有很多优势和良好的发展前景,已经成为机器人领域中的研究热点。多机器人系统是一个复杂的动态系统,在设计机器人控制策略的时候,通常不能够预先为每个机器人设定好所有的最优行为。基于行为的方法能够让多机器人系统呈现出一些智能的特点,完成比较复杂的任务,极大地促进了多机器人系统的发展。但是仅采用基于行为的方法还不能完全适应不断变化的外界环境和不同任务的需求,让多机器人系统具有自主的学习能力,同时避免单一学习方法的局限性,从而不断提高个体机器人之间的协调协作能力是多机器人系统的重要发展方向。因此研究将不同的机器学习方法与基于行为的多机器人系统相结合具有很好的研究意义。本文采用智能体理论对多机器人系统进行研究,其主要的研究内容包括:首先,研究了智能体及多智能体系统的理论,分析了单机器人和多机器人系统的几种体系结构,提出将基于行为的方法和基于学习的方法相结合来探索多机器人协同的研究思路,同时设计了基于行为的机器人编队和足球系统。在多机器人系统众多的研究内容中,学习能力占据了重要位置。基于行为的方法具有鲁棒性强、灵活的特点,相对于其它的方法能更好地使机器人完成任务。本文以基于行为的方法为基础,结合不同的机器学习方法,针对多机器人系统的两个主要应用平台:机器人编队和足球,在机器人仿真软件Mission Lab和Teambots的基础上,设计了基于行为的多机器人系统,从而可以对本文提出的几种算法进行验证。其次,研究了粒子群优化算法(PSO)和基于案例的推理(CBR)方法,针对这两种方法各自的优势,提出了一种融合PSO与CBR的混合系统方法。传统的基于行为的方法虽然具有很多优点,但是其固定的行为参数难以适应外界复杂的环境。CBR作为人工智能中的一项重要技术,因为其具有易于检索和存储的特点,很适合为不同的行为提供相应的参数。但是传统的CBR方法缺乏有效的学习能力,因此本文提出将PSO作为CBR的优化器,让CBR不断得到更好的案例,同时PSO也可以通过CBR获得更好的初始种群。与遗传算法(GA)相比较,PSO也是一种群智能方法,但是具有结构更简单、实时性强和适合对连续问题进行优化的特点,可以说遗传算法能够解决的问题,粒子群优化算法都能够解决。本文将PSO算法与CBR方法相结合,不仅克服了CBR的缺点,同时也满足了实时性和对连续问题进行优化的需求。同时以基于行为的机器人编队为测试平台,与标准的粒子群优化算法相比较,验证了该方法的有效性。然后,研究了强化学习的基本理论和典型的Q-学习方法,针对传统Q-学习在多机器人系统中应用的缺点:缺乏信息交流和结构信度分配问题,提出了一种采用经验共享和滤波技术的改进Q-学习算法,从而改善了学习性能、提高了学习效率。Q-学习算法的理论基础是马尔可夫决策过程,直接把Q-学习应用到多机器人系统中虽然破坏了这个前提,但是Q-学习因为具有运算简单、状态-动作空间规模小的特点,在机器人学习中还是得到了广泛应用。与多智能体强化学习方法相比较,传统的Q-学习算法缺乏与其它智能体的信息交流,因此本文提出了采用经验共享的方式,每个智能体共享其它智能体的Q值信息,在学习的过程中采用了渐进的学习方式,利用?-Greedy策略以1-?的概率来选取其它智能体的学习经验。同时为了加速Q-学习的收敛,不同于简单地把回报信号统一分配给每个智能体,本文将卡尔曼滤波技术运用到回报信号的分配中,即把接收到的回报信号看作是真实的回报信号与噪声信号的结合,在一定程度上解决了结构信度分配问题。以机器人足球为测试平台,与传统的Q-学习算法相比较,验证了该方法的有效性。最后,研究了几种典型的多智能体强化学习算法Minimax-Q、Nash-Q、FFQ和CE-Q和基于后悔理论的学习方法,针对传统的CE-Q算法收敛速度慢的缺点:缺乏有效的行为探索策略,提出了一种采用无悔策略的新型CE-Q学习算法。马尔可夫对策理论为多智能体强化学习提供了很好的理论基础,纳什均衡在多智能体强化学习中起到了重要作用,因此这些算法也被称作基于均衡的学习算法。与Nash-Q学习算法中计算纳什均衡相比较,计算CE-Q中的相关均衡更容易,因此CE-Q有着更好的应用前景。但是传统的CE-Q学习方法缺乏有效的行为探索策略,因此影响了CE-Q学习方法的收敛速度。从无悔策略的理论中得到启发,如果每个智能体都选择减少平均后悔值的方法作为行为探索策略,那么所有智能体的行为将趋向于收敛到一组没有后悔值的集合点,这组集合点也被称为粗糙相关均衡集合。同时经过分析得到,纳什均衡和相关均衡在本质上都属于粗糙相关均衡。因此本文提出了采用减少平均后悔值的新型CE-Q学习算法,加快CE-Q学习方法的收敛速度。最后以机器人足球为测试平台,与传统的CE-Q学习算法相比较,验证了该方法的有效性。(本文来源于《哈尔滨工业大学》期刊2016-12-01)

李腊梅[10](2016)在《基于多智能体粒子群优化算法的移动机器人同时定位与建图》一文中研究指出SLAM(simultaneous localization and mapping)问题是移动机器人自主导航的核心技术之一,涉及运动控制、信息交互、通信等领域的知识,该技术被广泛的应用于航空航天、农业、工商业等领域。未知环境中精确定位和地图构建是移动机器人SLAM问题的重中之重,精确的定位取决于高效的地图构建,而高效的地图构建反过来基于精确的定位。本文主要从以下四个方面介绍对SLAM问题的研究:1.结合希尔伯特(Hilbert)探测的原理和多智能体粒子群优化粒子滤波算法(multi-agent particle swarm optimized particle filter,MAPSOPF),分别完成了对未知区域探测和未知区域的合理划分的任务。2.对栅格法、人工场法、模糊法和MAPSOPF算法进行融合,用于处理动态障碍物环境下的路径规划问题,在机器人不与障碍物发生碰撞的前提下,保证机器人快速到达终点位置。3.利用多智能体(multi-agent particle,MA)系统的竞争机制对粒子群优化(particle swarm optimization,PSO)算法进行改进,并将改进的算法用于解决机器人的定位问题,提高定位精度。4.采用完全网络型结构、黑板机制和MAPSOPF算法解决多机器人的协作定位问题,相比于单机器人,多机器人可通过其他机器人的观测值对自身的定位信息进行更新,从而提高自身的定位精度。本文在最后对全文进行了总结,并对今后的研究进行了展望。(本文来源于《重庆邮电大学》期刊2016-04-15)

多智能体机器人论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

在今年的央视春晚上,6台大型仿人服务机器人惊艳亮相深圳分会场,与韩雪、关晓彤等明星和舞蹈演员同台表演歌舞《青春畅想》,引起广泛关注。殊不知,这并不是优必选的机器人第一次在春晚上登台表演,早在2016年和2018年其机器人就已登上了春晚。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

多智能体机器人论文参考文献

[1].惠州日报,骆国红.机器包下家务活主人去跳广场舞[N].惠州日报.2019

[2].黄涛.AI加持下的地表最萌机器人到底有多智能?优必选悟空机器人体验评测[J].消费电子.2019

[3].李嘉鹏,马超,孙浩,马守贤.基于惯性模块的智能体感遥控机器人设计[J].无线互联科技.2019

[4].钱程.RoboCup机器人救援仿真中多智能体协作模型的研究与建立[D].东南大学.2018

[5].张玉.人工智能体的机器人伦理研究[C].中国社会科学研究论丛(2018卷第1辑).2018

[6].邵暖,刘乐.基于双目视觉的多智能体机器人分布式包含控制[J].高技术通讯.2017

[7].仇国庆,李芳彦,吴健.基于多智能体遗传算法的多机器人混合式编队控制[J].青岛科技大学学报(自然科学版).2017

[8].丁明刚.基于多智能体强化学习的足球机器人决策策略研究[D].合肥工业大学.2017

[9].刘强.基于智能体的多机器人系统学习方法研究[D].哈尔滨工业大学.2016

[10].李腊梅.基于多智能体粒子群优化算法的移动机器人同时定位与建图[D].重庆邮电大学.2016

标签:;  ;  ;  ;  ;  ;  ;  ;  ;  ;  

多智能体机器人论文-惠州日报记者,骆国红
下载Doc文档

猜你喜欢