基于Linux机群的分布式共享显示内存

基于Linux机群的分布式共享显示内存

李颖敏[1]2001年在《基于Linux机群的分布式共享显示内存》文中研究表明利用计算机系统控制多个图形部件驱动多个监视器或投影仪得到基于拼贴的显示,是突破现有显示技术制约,实现千万像素以上的高清晰度大尺寸显示的有效手段。采用PC机群系统来驱动拼贴显示系统的方式,由于其较高的性能价格比,正日益成为主流的选择。但是,相对于采用共享内存机器驱动拼贴显示系统,这种实现方式需要更复杂的分布式显示软件的支持。基于这个认识,本文做了如下工作: ● 分析比较了基于机群的拼贴显示系统应用程序的结构并在此基础上提出了一种适合并行程序环境的拼贴显示接口。该接口为运行在不同结点上的显示应用进程提供了整个拼贴显示系统统一的虚拟显示内存映像,从而简化了拼贴显示系统应用的编程实现。 ● 以两种形式实现了该拼贴显示接口:函数调用形式(DSDM)和访存形式(DSDMJ)。并以该接口为基础实现了一些测试用的应用程序,如图像显示和浏览、图形绘制等。 ● 对函数调用形式的接口进行了性能测试并以此为根据进行了实现上的优化。 ● 指出了接口的访存形式对于实现高层拼贴显示接口的重要性。对这种接口形式进行了性能测试并分析了拼贴显示接口的访存形式性能落后于函数调用形式的原因。 ● 利用该接口为并行地理图像处理系统Pargip实现了多屏幕拼贴显示的Server端。在分析了Pargip体系结构的基础上利用JIAJIA DSM系统对Server端的数据存储分布进行了优化,提出并实现了一种利用该接口为Pargip实现多屏幕拼贴显示功能的高效方案。

于方[2]2009年在《叁角网格模型最短路径并行算法的研究与实现》文中指出近年来,由于叁角网格模型在几何建模、计算机图形学、网格模型分片等领域的广泛应用,使得人们开始关注于叁角网格模型上最短路径问题的研究。寻找任意两个顶点间的最短路径是叁维网格模型的基本计算问题。目前,已有的叁角网格模型最短路径算法大都是基于串行求解,随着计算网格规模的不断增大,算法的计算时间急剧增加。并行计算为快速求解大规模复杂问题提供了一个有效途径,采用并行方法能在更短的时间内解决相同的问题或在相同的时间内解决更多更复杂的问题,计算效率大大提高。为降低求解叁角网格模型上最短路径问题的时间开销,以便节省计算时间进行更深层次的研究,本文对叁角网格模型最短路径并行算法进行研究,主要内容包括:(1)提出并实现了基于多层k路划分任务分配策略的矩阵乘最短路径并行算法。该算法借用矩阵乘思想求解所有点对间最短路径,创新性地引入图划分方法进行并行任务分配。实验表明,相比采用传统任务分配策略,该并行算法能够有效降低处理器间的通信开销,从而减少整个算法的计算时间。(2)提出了采用消息传递MPI和共享存储OpenMP多粒度混合编程的矩阵乘最短路径并行算法。实验结果表明,由于充分利用了SMP机群两级并行的优点,该算法的并行性能和执行效率明显优于MPI实现的矩阵乘最短路径并行算法。(3)提出并实现一种基于局部细分法的叁角网格模型最短路径并行算法。局部细分法首先细分初始最短路径邻域内叁角面片上的边构造细分图,然后基于该细分图求解新的最短路径,这种方法使得点对间的最短路径可以沿叁角网格表面获得。并行算法采用源分割法将图的顶点分配到各处理器,所有处理器并行执行局部细分算法求得所有点对间近似最短路径。实验结果表明,该并行算法大大降低了求解所有点对间近似最短路径的计算时间,取得了较好的并行性能,得到比矩阵乘最短路径并行算法近似度更高的最短路径结果。本文建立了基于Linux的SMP机群并行计算平台,构建了该平台下MPI和MPI+OpenMP两种并行程序设计环境。对本文提出的叁角网格模型最短路径并行算法在该实验环境上进行测试,给出了算法的运行时间、加速比和性能分析。实验测试结果表明,本文设计的最短路径并行算法能够正确、高效地求解叁角网格模型上的最短路径问题,并且达到了减少计算时间、提高计算效率的目的,获得了较好的并行性能。

张志明[3]2012年在《Linux机群环境下并行蚁群优化算法的设计与实现》文中指出蚁群优化算法是一种新的模拟进化算法,具有正反馈、元启发式与分布式计算相结合的特点,其中正反馈有助于算法更快地发现较好解,元启发式特征有助于算法更容易地发现较好解,分布式计算则是有利于实现蚂蚁种群的并行寻优。此外,近年来随着计算机技术尤其是高性能微型计算机和高速网络的出现,一种廉价且高性能的并行机群环境逐渐成为并行计算领域的研究热点,这类计算机可以为用户提供低价高效的高性能计算环境和快速、灵活、可靠的计算服务。鉴于蚁群优化算法的分布式特性,本文在构建Linux机群环境下设计并实现了并行蚁群优化算法,并将该算法应用于旅行商问题。本文的主要工作和研究成果如下:(1)在研究分析现有蚁群优化算法和邻域搜索算法的基础上,利用邻域搜索算法对蚁群优化算法产生的初始解进行二次寻优,既能够发挥蚁群优化算法较强收敛性的特征,又能够使邻域搜索算法提高初始解的质量,从而指导后续蚂蚁的寻优过程。(2)通过对现有机群软硬件环境的调研和分析,确定了机群系统的选型,研究并分析了多种并行编程环境,建立了基于Linux的机群系统和基于MPICH的并行编程环境。(3)在Linux机群环境下,按照蚂蚁个体在多个处理器上均匀分布的思想,设计并实现了并行蚁群优化算法,对蚂蚁系统优化算法和蚁群系统优化算法,以及添加邻域搜索的蚂蚁系统优化算法和蚁群系统优化算法进行对比测试,并对加速比等性能指标进行了实例分析。

黄华[4]2005年在《蓝鲸分布式文件系统的资源管理》文中指出当前,高性能计算机得到了空前发展,特别是机群结构的超级计算机已经占据了TOP500中半数以上的份额。同时,随着信息技术的发展,越来越多的信息以数字化形式保存,存储子系统已经成为计算机系统中最重要的部分。然而由于外部存储设备受到机械部件的制约,其数据传输性能的提高远远落后于CPU运算能力的提高,造成存储子系统成为整个计算环境的瓶颈。与采用机群结构的高性能计算机系统类似,存储子系统的机群化将为解决数据传输能力的落后面貌提供一个可行的方案。 受国家“八六叁”计划重点支持的“蓝鲸”大规模网络存储系统致力于解决高性能计算环境中的存储子系统的瓶颈问题。它借助于高性能计算机网络,管理多个存储节点组成的存储机群,充分利用它们的存储空间和并发数据传输能力,实现高性能、低成本的海量存储。蓝鲸分布式文件系统(BWFS)是蓝鲸大规模网络存储系统的核心系统软件,它向用户提供单一映象的、全局共享的分布式文件系统服务。 本文结合BWFS的设计与实现,对其资源管理做了较深入的研究,提出了分布式分层资源管理模型,以及该模型在BWFS实现中的相关技术。主要研究成果如下: (1)BWFS的分布式分层资源管理模型(Distributed Layered Resource Management Model)。DLRM模型根据相对于资源的角色,将系统划分成多个功能独立的模块,实现分布部署:同时将它们划分成多个层次,有利于系统的实现与优化。DLRM模型确定了BWFS的“带外”数据传输架构,将负载和存储分担到多个节点组成的机群上,实现并发管理和并发数据传输,因此奠定了系统强大可扩展性,为系统实现负载平衡、在线迁移等提供了可能。 (2)高效的物理存储空间管理。DLRM模型将海量存储空间统一编址,然后划分成多个独立的资源组,并发管理各个资源组的存储空间,提高系统的性能与可扩展性。资源组采用的数据块/索引节点的动态分配、带统计信息的动态位图等技术使得BWFS具有高效率的空间管理能力。 (3)全动态元数据绑定技术。BWFS的活跃元数据采用全动态任意绑定技术,可以实现动态负载平衡,提高系统的性能和可扩展性。 (4)文件系统的资源管理优化。元数据服务器管理BWFS的元数据,实现资源批量申请/异步释放、分片存储(striping)、按策略的资源分配、分布式日志等技术。 (5)针对BWFS的性能测试、分析与对比。通过这些测试,验证了DLRM模型以及以上技术的有效性,对比分析显示BWFS在多方面的性能较NFS有显着提高;同时,也发现了系统的一些弱点,对以后进一步优化有参加价值和借鉴意义。

刘淘英[5]2005年在《机群系统管理体系结构的研究》文中研究说明系统管理作为一个复杂的问题有许多值得深入研究的内容。在该领域存在各种如统计分析、数据挖掘、模式识别、反馈控制的研究方法,以期不断改进既有技术和方法,也有许多面对新协议、新功能的工作。这些都是从功能角度出发的研究。本文从体系结构角度出发,对系统管理这类特殊的分布式应用进行了分析,并提出体系结构上的改进。本文的主要贡献有:1.根据对现有机群系统管理软件的调研以及对曙光机群系统管理的个案研究,总结出机群系统管理软件体系结构的抽象模型,以及机群系统管理体系结构中的关键问题:CAR。CAR性质指在考虑机群受管资源之间的依赖关系情况下的一致性、原子性和可修复性问题。一个机群系统管理软件的体系结构所能提供的可管理性由它所解决的CAR程度决定,其中C是一致性,指受管资源之间的依赖关系所引起的操作一致性,A是原子性,指针对多个资源进行管理的时候必须满足的“all_or_reinitiated”条件,R是可修复性,指一个管理器从错误和故障中快速修复的能力。这叁个条件均有强弱两级,强的性质考虑了资源之间的关系,而弱的性质则没有考虑。因此,任何机群系统管理软件体系结构的可管理性可以通过考察其满足CAR性质的程度来判断。2.为了解决CAR问题,需要对现有机群系统管理的体系结构进行改造。我们提出一种在机群系统管理体系结构中的标准化的管理器运行时结构——网程,网程集成了协同资源、同步资源、网程检查点和破坏性事务等四项技术,共同解决CAR问题:a.协同资源是机群范围的共享数据结构,网程(管理器)之间共享和交换数据可以通过协同资源进行。b.同步资源是在协同资源基础上实现的可以用来实现全局的互斥操作,为原子性的实现提供基础。c.网程破坏性事务为系统描述有依赖关系的资源组合提供了方法,并负责构造原子性的管理操作序列和部分失效的原子性故障处理。d.网程检查点使网程状态与运行分离,提高了网程的可修复性。3.本文实现了一个面向网程的机群系统管理平台,用以构造各种系统管理工具和应用,并对其进行性能和功能方面的评价。根据测试,该平台的功能都具有较好的性能。此外,我们采用网程的方式修改了曙光4000A系统管理软件包中的系统软件引导程序“控制中心”。该程序修改后代码量减少了19.1%,程序控制流程被简化,结构更加清晰,提高了代码的可读性。4.本文对网程这种标准化的管理器进行了可管理性的定性评价。网程中的破坏性

张钊宁[6]2014年在《云计算大规模弹性资源的性能优化技术研究》文中指出云计算的兴起与发展彻底改变了人们对计算资源的使用方式,促生了以计算为中心向以业务和服务为中心的一次变革性转化。基础设施即服务(Infrastructure-as-a-Service,IaaS)模式在云计算的服务模式中占据了重要的地位,同时也是当前云计算市场上主要组成部分。IaaS云服务将硬件基础设施,包括计算资源、存储资源、网络资源等,作为一种可计量可伸缩的资源提供给客户,我们称之为弹性虚拟资源。弹性虚拟资源的服务性能决定了云服务的经济成本与服务质量,因而成为提供商和用户共同关注的核心问题。优化弹性资源的性能面临着许多挑战,解决这些问题不仅具有重要的学术价值,而且具有广阔的应用前景。针对当前IaaS云计算大规模虚拟机群部署时间较长的问题,本文提出了一种基于分布式块设备的点对点虚拟机集群快速部署方法VMThunder,实现了10秒到20秒时间级的百台数量级虚拟机集群快速部署,有效提高了部署效率。该方法的核心思想是:基于虚拟机启动过程中的按需性、多虚拟机启动行为相似性等特点,利用块设备系统的灵活映射和配置,通过虚拟机按需获取启动数据、在中继节点缓存数据并对外提供与原始镜像服务器等价服务的方法,减少了单机载入数据量,减少了存储服务器总负载,从而达到加快部署时间的目标。在此基础上,本文针对用户需要在虚拟机启动后快速启动应用程序的需求,提出了一种基于虚拟机休眠恢复的虚拟机集群快速部署方法VMThunder+,可以在VMThunder相近时延下启动并携带指定的应用状态。VMThunder和VMThunder+在国家超算天津中心得到了实际大规模的部署和测试,实验表明,实测160台虚拟机的启动总耗时与单机上启动一台虚拟机耗时相似,同时两种方法均可以保证虚拟机运行态的性能。在传统存储系统中,预读机制对提高存储I/O性能发挥着巨大的作用;而在分布式多虚拟抽象层存储结构中,预读机制则表现出预读传递、预读迭加、以及预读窗口激进展开等现象,带来了网络数据流量增加、阻碍序列后续请求等问题。针对该问题,本文通过实验证实了多层预读机制中的预读传递与迭加现象对维持整个虚拟存储的性能是必要的;同时,本文提出了一种扇形预读窗口展开机制来克服激进窗口展开机制带来的数据流量陡增现象。该机制的主要思想是:通过建立读请求的深度信息维护机制,使每层虚拟抽象层感知自身在整个I/O路径上的位置,进而协同完成整体预读窗口的展开;协同式的窗口展开方式平滑且幅第i页度小,可以有效避免过于激进的、阻塞后续读请求的初始预读窗口;该协同预读窗口的展开机制是适应性的,可以根据不同的网络延时调节窗口展开的粒度。通过实验,我们将多层体系结构下的读数据访问性能提升了20%到50%。并且,读请求中序列数量越多,激进的预读窗口展开机制带来的性能损耗越大,该机制发挥的作用也越大。虽然在线迁移使得虚拟机的可用率可以高于物理机的可用率,但当前虚拟机的迁移性能尚不理想。针对该问题,本文提出了面向存储迁移问题的解耦合在线存储迁移方法DLSM和面向内存迁移问题的块设备化解耦合在线迁移方法BDLM。其核心技术点是:DLSM通过块设备系统的灵活映射与配置,实现了先迁后拷(Post-Copy)技术,有效的避免了迭代拷贝脏数据与迁移收敛问题;DLSM由于在存储层实现,对虚拟机透明,因此轻量地解决了已有先迁后拷方法中复杂的修改虚拟机管理器和其引发的内存数据崩溃等衍生问题。BDLM通过气球过充的方法来完成内存数据的块设备化,从而复用DLSM方法完成轻量级的内存在线迁移,有效的减小了内存迁移中对内存缺页等问题进行维护的复杂度。实验证明:较KVM原生CSI存储迁移方法,DLSM相比缩短了50%至70%的迁移时间,同时能有效减少CSI迁移不收敛问题的发生;而BDLM在KVM原生停机时间(60ms)的基础上,缩短了迁移时间,如1GB内存负载、115MB/s写脏页率情况下,将迁移时间从原有先拷后迁90s迁移时间缩短到在20s之内。

陈林[7]2006年在《基于Linux机群的大型结构并行有限元方法研究》文中指出随着国家建设的不断发展,出现了各种各样的大型和超大型的复杂结构。这些工程结构的规模不仅越来越大,其复杂程度也越来越高,而且还涉及到复杂的非线性本构关系,计算时间长。传统的基于单机的有限元方法往往无法满足这些问题的计算。将并行计算技术引入结构的有限元分析,可以从很大程度上增加结构分析的规模,提高分析速度,从而促进有限元法在大型结构工程中的应用。 随着计算机及网络技术的发展,利用PC机组建的机群为并行计算提供了平台。在此背景下,河海大学工程力学系利用PC机组建了基于Linux系统的高性能计算机群。本文给出了机群环境的详细配置和使用方法,并且对机群系统进行了测试。在机群上成功配置了主要用于在分布式存储环境下高效求解偏微分方程组的科学计算工具PETSc,对它的基本用法和程序执行过程进行了说明。 区域分解算法是适合在并行机上求解偏微分方程的一种方法。该方法先将求解区域划分为若干个子区域,然后在各个子区域并行求解。在机群环境下,本文以区域分解算法和并行预处理共轭梯度法为理论基础,采用C++语言和MPI编程方法,编制了基于Linux操作系统,适用于机群的大型结构并行有限元程序ADVPFEM。 利用本文程序对长方体结构进行了并行计算,得出了加速比和并行效率,并且与ABAQUS软件计算的结果进行了比较,得出两者的结果是一致的。对龙马面板堆石坝的简化模型进行了线性并行有限元计算,计算规模达到了百万单元,在机群上完成了计算。同时对于在使用相同处理器情况下,对不同子区域数所需要的计算时间进行了分析和比较。结果显示结构分析的并行计算时间不会随着计算CPU和子区域数的增加而无限制的减少。

岳利群[8]2011年在《基于分布式存储的虚拟地理环境关键技术研究》文中研究表明本文在学习,借鉴国内外相关研究成果的基础上,对分布式存储虚拟地理环境中的一些重要理论和关键技术以及相关算法做了较为深入的研究,通过大量的实验数据论证了论文提出的自适应空间数据模型和基于元数据的空间数据引擎,并在此基础上模拟构建了多级别多地区分布式存储虚拟地理环境,完成了原型平台的设计与开发,实现了地理空间数据的存储、管理、共享及可视化。主要研究内容和创新点如下:1.研究分析了现有分布式存储VGE的体系结构、数据资源、支撑技术和应用平台的特征及存在问题,建立了四层体系结构的分布式存储虚拟地理环境的架构,并从技术和应用两个层面,给出了基础层、资源层、服务层和应用层的内容构成和支撑技术,为分布式存储VGE的研究设计和应用服务提供了理论和方法指导。同时,探索并设计了基于网格、云模式和物联网模式下的虚拟地理环境的体系结构,为分布式存储VGE的发展提供了思路,也验证了本文提出的体系结构的扩展性和兼容性。2.建立了VGE元数据模型。结合分布式存储VGE的应用需求,建立了面向叁维仿真模型、矢栅一体表达的元数据模型,实现了VGE元数据的动态管理、快速解析、缓存维护等8项技术,为分布式存储VGE元数据的规范化和标准化提供参考。3.建立了自适应的空间数据模型。提出了自适应空间数据模型建立的五大制约因素:数据、软件、用户、计算机和网络,通过改进基于球面Clipmap的数据模型和分布式存储VGE的数据模型,构建了自适应空间数据模型,解决了分布式存储VGE中空间数据自适应组织和管理的难题。其中改进后的球面Clipmap空间数据模型,空间数据利用率提高了2倍。4.构建了基于元数据的分布式空间数据引擎,解决了分布式存储空间数据的快速索引和提取问题。构建并分析了空间数据存储体系,提出了基于Linux构建多缓存服务器的数据服务模式,该服务模式不但提高了数据访问速度,还消除了Lustre文件系统不支持Windows客户端的瓶颈问题。在服务器快速定位、数据缓存设计、数据并行提取、Socket连接池等方面改进和实现了空间数据引擎的若干关键技术,最终构建了分布式存储VGE的空间数据引擎。5.实现了自适应空间数据可视化的多模式应用,建立了全球矢栅一体可视化框架和分布式空间数据可视化框架,探讨并实践了分布式空间数据可视化应用的加速技术,基于自适应空间数据模型生成了空间数据可视化多模式应用,验证了自适应空间数据模型的有效性。6.设计并实现了基于分布式存储的高效高可用性虚拟地理环境平台。对分布式存储虚拟地理环境平台(DSVGEP)中重点模块存储数据入库、元数据管理、自适应空间数据模型、空间数据服务引擎、可视化表达进行了说明,在此基础上对平台进行模拟部署与应用。经实验测试,单台Linux客户端能够同时支持100台可视化客户端的并行访问。

刘伟峰[9]2016年在《机群环境下并行I/O操作优化研究》文中研究指明随着高性能计算机系统的不断发展与应用,很多科学计算程序(如并行渲染、天文计算、分子动力学、高能物理、流体力学计算、地球数值模拟系统以及天气预报)对系统I/O性能的要求越来越高。然而尽管I/O系统的存取速度越来越快,其与处理器计算能力之间的差距却越来越大,与此同时随着降低高性能计算机的能耗成为高性能计算领域的研究热点,并行程序I/O操作的节能降耗正受到越来越多的关注。并行计算程序将计算任务划分给各个进程共同完成,各个进程通常以并行I/O的方式对共享的文件或者文件集合进行读写操作,以获得所需数据。进程对共享文件的操作可以分为非集合操作和集合操作两种。非集合操作适用于各个子进程相对独立的并行计算程序,这类程序的各个子进程各自读取数据并进行计算,彼此之间并不进行通信,典型的应用有并行渲染。而集合操作适用于各个进程需要紧密配合的并行程序,这类程序的各个子进程紧密配合以共同完成数据的读写操作,计算的过程中各个进程间也往往需要交换彼此的计算结果,典型的应用有流体力学计算等。相对较低的I/O性能使得处理器花费越来越多的时间来等待数据,从而造成计算能力和电能的浪费。由于以上原因,提高大规模并行程序I/O操作的速度以及能效正变得越来越重要。基于上述背景,本文对并行程序的I/O问题进行了深入的研究。在系统论述了国内外相关研究现状和难点的基础上,本文提出了提高非集合并行I/O操作和集合并行I/O操作性能的方法。本文的主要工作和创新点包括:第一,提出了一种提高非集合并行I/O操作性能的方法。对很多松耦合的并行程序来说,运行于不同节点之上的各个进程之间共享大量的文件,本文设计了一个运行于机群环境的自组织的分布式内存缓存,该缓存存储各个进程所共享的文件,各个进程可以透明高速访问该缓存。一旦一个文件被存储在缓存内部,所有的进程都可以绕过并行文件系统,从共享的内存缓存里面获取数据,从而减轻了文件系统的压力。本文描述了该缓存的架构并对其性能进行了测试。第二,提出了一种对集合并行I/O操作进行快速调优的方法。集合并行I/O操作提供一些可调的参数,来帮助并行程序获得更好的I/O性能。由于存在较多的参数设置组合,而执行一次I/O操作往往需要较长时间,需要能够在较短的时间内找到足够好的参数设置。通过为集合并行I/0操作的执行时间建立模型,可以在模型的指导下较快的完成对参数设置空间的搜索,从而发现较好的参数设置。第叁,提出了提高并行I/O操作能效的方法。为了设计exascale计算机,越来越多的研究开始关注如何改进高性能计算系统的能耗。获取并改进并行程序的能耗,对于改进高性能计算机的能效意义重大。现有的分布式能耗测量工具并不能自动在机群环境中启动运行。通过能自动收集程序运行期间各计算节点总体能耗的分布式工具,可以获得MPI程序的详细能耗信息,从而为改善其能效打好基础。本研究同时也为并行I/O操作建立能耗模型,基于模型进行改进。

张建友[10]2007年在《基于Linux多节点容错系统的设计与实现》文中进行了进一步梳理随着计算机技术和网络应用的普及,人们对计算机系统的依赖日益增强。一些关键性的业务处理系统要求计算机服务系统具有很高的可用性,以保证业务处理的连续。因此必须提高业务系统的稳定性和可用性,尽可能地避免因故障导致的停机和服务的中断。对于中小型应用,目前采用比较广泛和成熟的是双机容错系统。这种系统结构简单,投资小,具有较高的可用性。但是随着业务量的增长和对系统处理能力需求的增加,双节点的架构已经不能满足这种要求,于是需要扩展性好的多节点业务处理系统。目前在提高服务可用性方面得到了业界越来越多的关注,取得了重要成果如开源社区的LVS和LinuxHA,它们都得到广泛的工业应用。本文就是在这种背景下设计并实现了基于Linux的多节点容错系统。它具有二级容错功能,能够在多节点运行环境下提供对服务进程和计算节点的保护。服务进程出现异常时,系统能和其他的节点共同协作完成进程故障处理,提高服务的可用性。由分布式选举算法选出的代理节点能保证失效节点上的服务得到有效处理,从而提高了系统的可用性。该系统采用分布式的松耦合体系结构来组织节点,具有良好的可扩展性,处理节点可以随时加入和离丌监控关系而对服务没有任何影响。为了避免任务调度因素对检测的影响和完成对节点失效快速准确的检测,本文设计和实现了专用心跳检测协议。该检测协议作为网络协议实体运行在操作系统核心态,使得检测器运行更加稳定,从而大大提高了检测速度。

参考文献:

[1]. 基于Linux机群的分布式共享显示内存[D]. 李颖敏. 中国科学院研究生院(计算技术研究所). 2001

[2]. 叁角网格模型最短路径并行算法的研究与实现[D]. 于方. 辽宁师范大学. 2009

[3]. Linux机群环境下并行蚁群优化算法的设计与实现[D]. 张志明. 长安大学. 2012

[4]. 蓝鲸分布式文件系统的资源管理[D]. 黄华. 中国科学院研究生院(计算技术研究所). 2005

[5]. 机群系统管理体系结构的研究[D]. 刘淘英. 中国科学院研究生院(计算技术研究所). 2005

[6]. 云计算大规模弹性资源的性能优化技术研究[D]. 张钊宁. 国防科学技术大学. 2014

[7]. 基于Linux机群的大型结构并行有限元方法研究[D]. 陈林. 河海大学. 2006

[8]. 基于分布式存储的虚拟地理环境关键技术研究[D]. 岳利群. 解放军信息工程大学. 2011

[9]. 机群环境下并行I/O操作优化研究[D]. 刘伟峰. 山东大学. 2016

[10]. 基于Linux多节点容错系统的设计与实现[D]. 张建友. 大连理工大学. 2007

标签:;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  ;  

基于Linux机群的分布式共享显示内存
下载Doc文档

猜你喜欢