基于DFL的agent的问题求解模型及其应用研究

基于DFL的agent的问题求解模型及其应用研究

梅毓[1]2003年在《基于DFL的agent的问题求解模型及其应用研究》文中研究说明基于动态模糊逻辑(DFL)给出了DFL agent的逻辑模型,建立一个基于多agent的问题求解模型。主要包括以下几个方面的工作: (1)分析了当前问题求解理论的不足,针对这些不足,给出基于DFL agent的模型; (2)基于权值优先的学习策略,给出了agent的学习方法; (3)利用DFL agent建立问题求解模型,并给出求解算法和agent的协商算法; (4)给出该模型在皇后问题中的应用研究。 通过本文的研究,相信进一步丰富了agent问题求解的理论与技术,这些成果对DAI(分布式人工智能)的研究也有积极的促进作用。

童海峰[2]2005年在《基于DFL的多Agent自动推理平台设计》文中认为本文利用动态模糊逻辑(DFL)作为形式化描述工具,提出了Agent的推理模型,并在此基础上构造了一个多Agent系统推理平台。主要工作包括:基于DFL理论,构造了单个Agent的推理模型;分析了当前多Agent系统的研究状况,构建了多Agent系统的推理平台;给出了Agent推理过程中的选择算法、反馈算法、协商算法和推理算法;给出了该平台在组合数学中的初步应用。 综上所述,本文的特点主要有如下几点: 1、提出了基于DFL的多Agent自动推理平台的设计方案,并进行了初步的实例分析; 2、提出了基于DFL的Agent自动推理过程中的选择算法、反馈算法、协商算法等; 上述工作,对多Agent系统进行了合理的形式化描述,既弥补了现有理论的不足,又为进一步研究多Agent系统提供了新的途径。

段爱华[3]2005年在《基于DFL的Agent自主学习模型及其应用研究》文中进行了进一步梳理本文在对Agent学习本质分析的基础上,基于动态模糊逻辑理论,建立了Agent自主学习的模型,构建了动态的Agent学习系统。主要包括如下几个方面的工作: (1) 分析了当前Agent学习模型的研究状况,构建了动态Agent学习模型。 (2) 给出了基于动态模糊逻辑(DFL)的Agent自主学习模型。 (3) 给出了Agent学习的流程算法。 (4) 给出了该学习模型在组合数学问题求解中的应用。 通过上述工作,我们对Agent自主学习模型给出了合理的描述,为Agent学习方式的进一步探讨提供了有效的理论基础。一方面弥补了现有理论描述的不足,另一方面也为人们进一步研究Agent学习找到了新的途径。

钱旭培[4]2003年在《基于DFL的多Agent在对抗环境和非对抗环境中的协调模型及应用研究》文中研究说明本文基于动态模糊逻辑理论,针对多Agent系统中在对抗和非对抗环境中的工作机理,建立了多Agent基于对抗和非对抗环境的协调工作模型,主要包括如下几个方面的工作: (1)基于让步原则,给出了多Agent的冲突消解算法; (2)基于集合覆盖的概念,给出了多Agent的资源分配通用算法 (3)基于动态模糊逻辑,分析了当前Agent的BDI模型的不足,并针对这些不足,给出了基于DFL的Agent的心智模型。 (4)基于强化学习技术,给出了协调模型中Agent在线学习算法。 (5)给出了该协调模型在产品开发工作流管理系统中的应用研究。 通过上述工作,我们可以从本质上对多Agent系统进行合理的描述,为人们希望建立友好的共同协调工作的计算机系统奠定了有效的理论基础,一方面弥补了现有理论描述的不足,另一方面也为人们进一步研究多Agent系统找到了新的途径。

张瑜[5]2008年在《基于DFL的软件Agent普适方法及应用研究》文中研究表明普适计算自20世纪90年代起至今,已取得了长足的发展。从普适计算的定义可以看出,“随时随地”和“透明”是普适计算的本质要求,这两个本质要求同时都具有动态性和模糊性这两个特性。因此,我们将普适计算技术和Agent相结合,引入动态模糊逻辑来描述软件Agent普适方法。主要包括以下内容:(1)提出了基于DFL的软件Agent的普适评估模型及算法。(2)结合上下文感知技术,给出了基于DFL的软件Agent上下文感知模型。在上下文感知模型的实现过程中,软件Agent系统对于外界的上下文信息的获取以及单个Agent之间的合作交流引入信任协调机制和强化机制来规范,确保软件Agent能够找到一条最优的执行策略;(3)根据普适计算环境中用户提出的上下文任务的特点,给出了基于DFL的上下文任务分配算法。本文虽然给出了基于DFL的软件Agent普适方法的一些框架和实现方法,但由于普适计算环境的复杂性,还有许多工作需要进一步研究。如:在移动设备和无线网络资源限制的普适计算环境中,如何解决移动设备和无线网络资源的利用率等。

许洪云[6]2009年在《MAS中基于本体的Agent学习进化机制研究》文中认为环境是动态变化的,MAS中Agent行为也是未知的,要建立领域完备的先验模型几乎不可能,许多领域知识也是在Agent的交互过程中逐步获得的,因此复杂环境下的Agent应当能够根据以前的经验建立信任评价模型,校正其行为,即具有学习或自适应能力。Agent学习是近年来广泛受到人们关注的热点问题之一。单个Agent常常由于其有限的资源和能力,不能完成复杂的任务,所以多个Agent之间的学习交流也非常必要。依据现有的Agent理论模型及其技术方法,并没有真正实现大规模的应用,其中一个主要问题就是多Agent的本体论没有解决。本文首先回顾Agent与MAS的产生发展及主要研究内容,介绍Ontology与DFL的基础知识,针对一个旅游消息服务原型系统,构建旅游领域Ontology,并采用基于Ontology的知识表示与推理,在此基础上介绍语义协商学习和信任模型。多Agent学习进化策略,主要包括Agent的协商学习,基于Ontology的语义相似度的计算,信任度评价学习模型等。根据以上学习进化策略,并结合Ontology理论与Agent技术,提出了基于Ontology的一种新的BDI-Agent体系结构、基于DFL的BDI-Agent的学习模型以及动态模糊信任度(DFB),通过实验表明,在增加动态模糊信任度的情况下,BDI-Agent学习能够提高学习效率,符合人类思维与行为习惯,并提供用户个性化地旅游服务。

谢丽萍[7]2006年在《基于DFL的多agent学习模型研究》文中指出Agent学习是近年来广泛受到人们关注的热点问题之一。针对agent学习过程中,agent本身属性以及环境所存在的动态模糊性特点,本文基于动态模糊逻辑(DFL),给出了一种多agent学习模型,包括agent心智模型、agent的心智状态及其相关公理、agent的工作原理、即时回报的单agent学习算法、基于DFL的Q-learning算法、多agent学习算法等,并将这些算法用于解决实际问题,实现了基于DFL的纸牌游戏系统。由此可以看出,本文的特色主要体现在如下几个方面:(1)提出了基于DFL的agent心智状态模型,为研究agent学习模型及算法奠定了基础;(2)提出了基于DFL的单agent和多agent学习模型算法,进一步丰富和发展了agent学习的基本内容;(3)实现了多agent学习算法在纸牌游戏中的应用。当然,这些工作还很初步,还有许多方面需要进一步研究:如学习算法的优化,模型在具体领域的应用等。

苏频[8]2007年在《基于DFS的并行粒度计算模型及其应用》文中研究表明粒度计算是近几年提出的新概念。由于粒本身具有的性质,如粒的大小,粒的变化等,因而,动态模糊性在粒度计算领域是普遍存在的。人们在用粒度计算求解问题时又希望从并行角度来求解问题。因此,针对粒度计算在并行计算中的工作机理,本文基于动态模糊集理论(Dynamic Fuzzy Set ,DFS),给出并行粒度计算模型和算法,及范例系统分析。主要包括如下几个方面的工作:(1)分析了当前粒度计算的研究进展,并指出了粒度计算模型的不足。(2)基于DFS建立了并行粒计算模型,并给出求解算法。(3)给出了该模型在问题求解过程中的具体实例:如,在教学评价系统中的应用研究。综上所述,本文给出这些基本模型虽然对并行粒度计算有一定的作用,但是鉴于目前的工作还很初步,因此还有很多工作需要进一步研究,如,并行粒度计算的协调算法等。

黄颖[9]2012年在《机器人足球仿真比赛中球员高层动作技能的研究》文中进行了进一步梳理机器人世界杯足球赛(Robot World Cup, Robocup),它涉及人工智能、机器人学、传感、通讯等诸多领域的前沿研究和技术集成。RoboCup2D仿真比赛系统作为一个仿真平台,在此基础上通过对Agent的动作技能及团队的协作策略等研究检验各种技术和智能算法理论。在动态、实时性、环境信息不完全确定的RoboCup平台中,各种因素影响着球队取得胜利,而选择哪些因素通过什么样的方法来解决问题,是研究的必要话题。本文以RoboCup2D为载体,从手工编码方式和机器学习方式两方面出发,研究学习综合评价法和机器学习算法,并围绕我们球队的Agent的高层技能动作展开研究。主要研究内容如下:首先,简要介绍了RoboCup的情况、研究现状及针对手工编码和机器学习的研究方式,然后运用这两种方式对Agent的高层动作技能进行研究。同时阐述了RoboCup2D仿真比赛平台以及与仿真平台相关的感知模型、运动模型和动作模型;分析得到GDUT-TiJi球队的整体结构和Agent结构模型。其次是对于射门技能的研究。通过分析球队底层代码以及观看比赛录像,总结了球队射门技能的不足以及影响射门成功的原因,选择采用手工编码的方式并运用评价的思想进行射门决策的设计。对比分析了目前主要的几种评价法之后,选择基于灰色关联度的灰色综合评价法建立机器人足球2D仿真比赛中Agent的射门技能决策。然后阐述了基于灰色关联度的灰色综合评价法的原理,建立了评价指标体系,设置了组合权重,并通过比赛实验提高了射门成功率,验证了此方法的可行性。最后,在传球技能的研究上,我们首先比较了手工编码方式和机器学习方式的优缺点,然后阐述了机器学习的意义。传球动作属于局部协作动作,适于用机器学习的方式进行研究。对比分析了机器学习的各种学习策略,结合RoboCup环境的特点,选用基于DFL的Agent自主学习方法进行研究。然后论文阐述了Agent自主学习概念、基于DFL的Agent心智模型结构及Agent自主学习模型,并给出一个实例验证了此方法的可行性和有效性。最后将此方法应用于球队中,选取防守策略强的队伍进行实验,在传球技能的学习上,取得了较好的效果。

刘东晓[10]2006年在《基于DFL的多Agent安全模式设计》文中进行了进一步梳理针对当前对Agent安全的研究现状及其面临的困难,本文利用动态模糊逻辑作为形式化的描述工具,引入生物免疫系统的相关免疫机制,构造了一种新的Agent类型-免疫Agent,并在此基础上构建了一个基于DFL的多Agent安全模式。主要包括如下工作:(1)分析了当前多Agent安全的研究现状及其面临的困难,给出了多Agent安全的需求和定义;(2)分析和抽取了相关的免疫机制,构造了一种免疫Agent,并利用动态模糊逻辑对其非空心智状态进行了描述;(3)给出了Agent之间基于心智属性的通信方式;(4)以动态免疫网络理论为基础,结合动态模糊逻辑,给出了TIA的状态鉴别模型;(5)给出了基于克隆选择原理的TIA免疫算法,并在该算法的基础上提出了单TIA非自体识别模型和多TIA协商非自体识别模型;(6)将该安全模式在计算机病毒检测中进行了应用,实现了一个简单的基于二进制编码的计算机病毒检测模拟系统。通过上述研究工作,一方面为多Agent安全机制的研究提供了一个新的解决方案,另一方面也为实现一个真正安全可用的多Agent系统提供了一种新的途径。

参考文献:

[1]. 基于DFL的agent的问题求解模型及其应用研究[D]. 梅毓. 苏州大学. 2003

[2]. 基于DFL的多Agent自动推理平台设计[D]. 童海峰. 苏州大学. 2005

[3]. 基于DFL的Agent自主学习模型及其应用研究[D]. 段爱华. 苏州大学. 2005

[4]. 基于DFL的多Agent在对抗环境和非对抗环境中的协调模型及应用研究[D]. 钱旭培. 苏州大学. 2003

[5]. 基于DFL的软件Agent普适方法及应用研究[D]. 张瑜. 苏州大学. 2008

[6]. MAS中基于本体的Agent学习进化机制研究[D]. 许洪云. 东华大学. 2009

[7]. 基于DFL的多agent学习模型研究[D]. 谢丽萍. 苏州大学. 2006

[8]. 基于DFS的并行粒度计算模型及其应用[D]. 苏频. 苏州大学. 2007

[9]. 机器人足球仿真比赛中球员高层动作技能的研究[D]. 黄颖. 广东工业大学. 2012

[10]. 基于DFL的多Agent安全模式设计[D]. 刘东晓. 苏州大学. 2006

标签:;  ;  ;  ;  ;  ;  ;  

基于DFL的agent的问题求解模型及其应用研究
下载Doc文档

猜你喜欢