汪娟[1]2008年在《基于WEB的工业远程监控系统研究与实现》文中提出随着网络技术的飞速发展和企业信息化的推进,将传统的监控系统与Web技术相结合的B/S(Browser/Server)模式计算机远程监控系统逐渐成为新的研究和开发热点,构建基于Web的工业监控系统成为工业监控领域发展的方向之一。本文首先回顾和介绍了监控技术的发展历史和研究现状,并对基于Web的监控系统的功能、层次以及实现方案进行了较深入的研究和探讨,通过对不同软件结构模式的比较,确立了B/S模式的远程实时监控系统方案。其次从系统集成的角度出发,对基于Web的远程监控系统的若干关键技术进行了系统分析与比较。在上述理论分析的基础上,分析了叁种远程监控体系结构的解决方案,即基于数据库技术、OPC(OLE for Process Control)技术和Socket通信技术的远程监控方案。通过对不同技术下实现基于Web的远程监控方案的分析与比较,采用了Socket实时通信技术实现工业现场控制网络与企业信息网络之间的数据共享,设计了基于Socket技术的远程实时监控系统结构,其中Socket客户端以ActiveX控件的形式在浏览器中与现场监控站进行实时数据交换的方案,不但实现了异构网络之间的数据共享,而且改善了传统的基于Web的监控方案所带来的实时性差等缺点。论文同时分析了影响基于Web的监控系统实时性的若干因素,给出了改善系统实时性和安全性的措施和方案。最后,结合实际项目,分别实现了对某油罐区现场的远程监控,实现了远程数据采集、数据监视、参数修改以及历史数据查询等功能,通过实验运行验证了实施基于Web的工业远程监控系统的有效性。本系统采用Visual Basic 6.0开发人机交互ActiveX控件,ASP.NET开发Web服务器页面。实现的基于Web的工业远程监控系统不但改善了基于组态软件的远程监控系统带来的监控平台异构的缺点,而且改善了完全以数据库服务器为数据源的监控系统实时性差的缺点,尤其适用于监控系统点数不是特别多但对实时性要求较高的情况。通过实际应用可以看出,本文设计的基于Web的监控系统能够较好地满足用户的要求,实现对工业生产过程的监控。
封红莲[2]2008年在《Web界面中的信息设计研究》文中指出随着网络成为人类交往中日益重要的纽带,信息及信息获取的质量在人们生活中占据了越来越重要的地位,并因此,一门新兴的学科——信息设计应运而生了。信息设计的研究领域很广,涉及到的学科众多,在不同领域都有对信息设计不同方面的研究。而本对信息设计的研究主要是集中在艺术设计学科的领域内,包括信息图形学、数字媒体艺术、人因工程、用户认知心理等联系紧密的学科。研究的信息环境选用了对当今人们生活影响最大的网络媒体。本文首先对信息设计的概念做了界定,追溯了信息设计发展的历史,分析了信息设计的基本特征,对国内外在这一领域的研究状况进行了梳理,并提出了自己对信息设计概念的理解。随后,文章对当前最大的信息环境——Web进行了分析,界定了Web界面的概念,特征,分析了Web用户对Web的体验。在此基础之上,依托Web界面这个载体,对信息体系结构各要素(内容构建系统、导航系统、交互系统、搜索系统、视觉传达系统)进行了详细分析,并结合实例提出相应的设计准则。通过对Web中这些基本要素的分析,结合信息设计理论和实际案例,对其应用于Web界面的流程进行了讲解,旨在为信息设计流程提供一般的设计方法和思路。本论文致力于从设计艺术学的视点去研究信息的清晰、可理解、易获取,旨在对国内对信息设计的理论研究提供一定的现实指导意义,也为信息设计在行业中的实践提供了相应的参考价值,为信息设计的进一步探索、研究提供可能性。
冯振兴[3]2008年在《Ajax技术在Web系统中的应用研究》文中认为随着Internet的高速发展,以及Web应用程序的复杂性越来越高,传统的Web应用已经越来越难满足用户的需求。随着Web2.0和RIA概念的提出,传统的Web应用模式受到了新技术的强烈冲击。本文分析了传统Web应用模式的工作过程及其缺点,指出传统Web应用采用同步交互过程进行工作。着重分析了Ajax新技术的工作原理及其优势,阐明了Ajax技术异步交互的特点。同时,研究分析Ajax技术自身的应用缺陷,提出解决方案,进行技术弥补。Ajax技术可以使Web应用进行异步的交互,从而极大的提升用户体验和Web操作效率,为新时代的Web应用系统开辟了一个新的发展方向。本文通过对Ajax技术的研究应用,测试比较Ajax技术在Web系统中的实际效果。旨在通过对新技术的研究应用,能够在一定程度上解决大量数据与服务器频繁交互给服务器带来的压力问题,能为大量数据的应用环境系统开发时,提供一种解决方案。本论文设计并开发了实际案例——基于Ajax技术的“数字校园”在线考试系统,整个系统和Ajax技术完美结合,大大提高了系统性能,为其它类似系统的开发做了很好的尝试性工作。本系统的成功实现对于校园网Web应用系统开发也具有一定的借鉴意义。
王承军[4]2015年在《高并发大数据在线学习系统中的关键技术研究》文中进行了进一步梳理21世纪以来,随着信息技术飞速发展,教育信息化、高等教育大众化的普及,基于互联网的在线远程教育蓬勃发展,形成目前以网上交互式在线学习为主要特点的现代远程与继续教育格局[。自1999年开始现代远程教育试点工作到2014年,我国69所试点高校共计建立了17362个学习资源库,累计超过1932万学生采用网上在线学习形式进行学业学习。在线教育同时也催生了MOOC、微课、翻转课堂等的产生和发展,移动学习也应运而生。但目前的在线学习系统普遍跟不上各类资源建设和教育规模发展的速度。主要是现有系统的并发能力和数据处理能力满足不了当前的需求:为提高教学质量,各高校不约而同地推出了质量管理和监督的相关措施,诸如推出类似学习时长记录等与学习过程、学习者行为有关的考核软指标,促进学生网上学习、互动的热情;推出移动学习方案,满足学生随时随地的学习要求。开办远程教育的学校在籍学生一般都在3万至10万学生,开放大学甚至有200多万在籍生,由于成人业余学习的习惯,考试前、节假日、晚上是学习集中的高峰期,在线学习系统中同时在线学习的人数至少在数千人以上,对系统的并发能力提出了严峻的考验和挑战,每所学校的在线学习平台都崩溃过无数次,严重影响学生的学习热情。同时,各高校现有的在线学习系统基本上都是建立在传统关系型数据库之上、基于Session机制开发的信息系统。这类系统架构有着先天的不足:一是每一个用户要在内存里建立一个Session,在内存一定的情况下单个节点的并发能力大大受限;二是关系型数据库最大连接数受服务器性能和网络速度制约明显。远程教育经过十几年的发展、各高校格式化的数据在百万、千万条量级的记录,未来随着新的学习平台的推进,会继续攀升至上亿、甚至数十亿条记录的规模,数据量至少在TB级。主表的数据记录一旦达到上亿条,那么与主表关联的数据表记录就是原主表的几十倍、几百倍,数据总量甚至可能达到PB级别。在这样一个高并发、大规模数据的环境需求下,在现有的多层模型上如何构建性能稳定的Web信息系统,是在线学习系统中一个不可回避的难题。解决高并发的传统方案有六种:(1)采用高性能的服务器或者集群:(2)高效率的编程语言(SQL优化、数据库缓冲池技术等);(3)尽可能的采用静态化手段(例如信息发布系统CMS将动态发布的内容预先生成静态页面);(4)内容分离(图片服务器与其它文件服务器分开存放,实现简单分流策略);(5)WEB缓存技术(客户端、服务器端以及代理服务器端缓存机制;(6)库表散列技术(同一张信息表,通过程序将不同功能模块涉及的数据分离到不同的数据库或表中去,分析其数据特征来划分更细粒度的数据库表)。但仅采用这些手段,还是难以满足大数据模式下的高并发访问的需求。因为这些传统方案都没有涉及集群中单个Web服务器节点的Session占用内存问题。相反,传统方案中的各种集群方法需要额外采用自己特有的机制,保持集群中Session一致性。本文探索在不改变系统架构本身的原则前提下,通过调整系统层次内部元素、调度策略和增加新元素,来提高在线学习系统的各项性能指标。论文从Web系统的架构及数据库技术、现代访问控制UCON模型[9]的重构、O-Session的模型设计与应用、构建大数据量级的压力原型系统等四个方面阐述大数据量下性能稳定的Web系统构造技术。现阶段的Http协议采用的服务是无状态的,但很多Web服务的应用需求是“有状态的”。于是,人们在第叁层WEB业务应用容器层构建一个Session元素,与第一层的cookie元素组合,或者通过url重写技术,实现了目前Web信息系统“有状态”的服务,典型应用是在线购物网站的购物篮服务。然而随着用户数的急剧增多,采用Session-cookie或Session/url重写技术首先面临有限内存的问题,每个用户都需要服务器维持一个Session,而且还需要保持一段不短的时间才会释放内存,并发用户越多,所耗内存容量越大,在一段时间内并发数达到一定量,内存将来不及释放而全部占用,造成系统拥塞而拒绝访问。因此,在高并发的系统当中,减少内存消耗尤其重要。本文基于可系列化的消息(Json)及通行证策略的消息传递模型提出了O-Session模型,对需要交换或者需要向后续页面传递的消息,依据通行证策略,将通信证消息存入关系型数据库或者基于健值对的高效NoSQL数据库,需要时直接凭借通行证号从关系数据库或者NoSQL数据库中获取通信证消息,极大地减少了内存消耗。作者将O-Session模型应用于在线学习系统中的在线考试子系统后,系统并发能力随之大幅度提升。学生在线考试时,考试时间统一,人员集中,一场考试长达2个小时。如果这2个小时考试所有Session都处于保持状态,内存消耗巨大。此外,考生与服务器所在的网络环境复杂多变,Session模式必须保证考生考试本地机器与服务器之间的网络2个小时内不能有任何“闪失”,否则,可能会弄丢用户Session导致答题完毕却提交不了试卷。实施O-Session方案后,考试时间、Session等消耗内存的因素自然消失,从而提高了服务器的并发性能;考试时,只需要求下载试卷和提交答卷时保持网络畅通;至于考生答题期间,不需要与服务器有任何交互,断网或服务器中途重启都不会对考试产生任何影响。O-Session方案本质上是适当牺牲系统的响应速度来提高并发性能、用时间换空间的策略。Session机制是基于服务器内存的,其读写速度要优于O-Session的消息传递方案。O-Session的消息传递方式需要把含有通行证的消息通过网络存储到关系数据库或者NoSQL库中,具有一定的响应时间和网络开销。但这些开销,在高并发系统中,与需要长时间在内存中保持Session的方案来比较,是值得的。单台Web服务器的响应能力毕竟有限,在第二层选择Web服务器集群是缓解系统高并发访问的一个很重要的方法。集群(Cluster)把多台计算机系统通过网络联接构成一个松耦合的系统,各机器之间的进程可以相互通信。负载均衡(Load Balance)将关键任务分解成若干子任务,然后按一定的策略分摊到多个操作节点上执行,协同完成工作任务。通过负载均衡来扩展服务器的带宽、增加整个系统的吞吐量,是一种廉价有效的方法。网络数据处理能力得以倍增,灵活性和可用性获得大幅度提升[25],[26]。常用的负载均衡技术主要有叁类:基于DNS的负载均衡、基于反向代理(Reverse Proxy)的负载均衡(以JK2、NGINX为代表)和基于网络地址转换技术(NAT:Network Address Translation)的负载均衡[27],[28]。基于DNS的负载均衡是使用同一个域名对应多台服务器,每台服务器使用不同的IP地址,服务器之间无主次之分,是完全平等的个体,任意一台服务器都能处理客户端的请求;基于反向代理的负载均衡是由一台特殊的计算机(一般称为请求分配器)集中接收来自网络的所有对应HTTP请求,然后依据一定的原则把它们分配到内部网络的各台服务器上去进行处理;基于网络地址转换技术的负载均衡是通过修改网络层TCP/IP协议栈来实现的,它接受来自Internet的合法地址的客户端请求,通过网络地址转换技术,把本次的请求依据特定的负载均衡策略转发到其内部网络地址中去。负载均衡目前常用的请求分配算法主要有转轮法、最少连接法和最快连接法等。所有这些负载均衡的实施,其中会话(Session)管理是每一种解决方案中必须考虑的难题,方案不同,实施技术也千差万别。采用O-Session模型,则可以适用于每一种负载均衡方案。本文在第二层中引入NGINX实现基于反向代理的负载均衡。数据库技术基本上每10年都出现一次大的变革,历经网状数据库、层次数据库和关系数据库、对象数据库。数据库技术的变革促进了信息系统特别是Web信息系统的快速发展。Web信息系统在数据积累到一定的程度时候,海量(massive data)数据、大规模数据(VLDBvery large data)的概念相继出现,数据积累从量变到质变的飞跃过程,反过来作用于数据库技术,对数据库技术提出更高的期望。当人们的注意力从事务处理技术ACID转向Eric Brewer教授的CAP理论时,大数据(Big Data)时代终于拉开帷幕。在高并发的系统中、单纯的关系数据库存储解决方案面临不可逾越的数据库连接池[24]里的连接数的限制。为了增强数据存取能力,人们提出了基于CAP116理论的NoSQL数据库技术,针对不同的大数据应用模型,人们会选择不同的NoSQL数据库方案或者NoSQL数据库与关系数据库联合存储的方案。基于联合存储的方案,先要厘清各类数据存储的具体位置。本文依据高并发的试验结果,提出了大数据高并发系统联合储存策略解决大数据存储问题的四原则:原则1、构建核心业务主表以数据库表分区的模式存入数据生产库。原则2、与核心业务主表相关联的所有业务数据存入NoSQL数据库。原则3、用户数庞大的系统,特别是高并发的用户子系统,其涉及的与核心业务主表没有直接联系的只读业务数据部分存放在NoSQL库里,数据生产库里也应保持一份拷贝。原则4、需要统计分析与核心业务主表相关联的业务数据时,要建立独立的数据统计库。在Web多层体系结构中,用户角色权限模型属于第五层的安全认证层。传统的用户角色权限系统,需要给每一个用户指定一个角色。这使得对当前动辄数百万用户的系统管理变得不可忍受。另外,现代访问控制模型也需要新的技术实现来验证基于条件授权、过程可控的权限管理模型。针对第一个问题,本文采用用户分类的方式将其中某一个大类的用户抽取出来,作为一个用户集合来整体看待,系统统一赋予对应的角色,不再将这些用户作为系统用户进行管理。如本文研究的在线学习系统中,教师和学生类型的用户,他们不再出现在系统的用户管理中去给他们分配角色和权限。这类用户分别定义为教师集合类用户和学生集合类用户,单个教师或学生也就天然地继承了对应用户集合的所有角色和功能;同时,再根据用户类的某些具体属性值,构建基于用户类某个属性值的用户集合子系统。对基于属性值的用户集合子系统赋予角色,对应属性值的用户,自然就继承了该属性值的用户集合子系统的所有角色和功能。针对第二个问题,在原来基于RBAC权限控制的基础上,增加了权限的condition模型,实现了现代访问控制模型UCONabc[10]中可演变的权限方案。综合这两个元素,本文在Web多层体系结构的第五层安全认证层中提出了面向系统的现代访问控制模型S-UCONabc。依据我国现代远程与继续教育当前需求与长远的发展相结合的理念,在传统的多层(B/S/DB/S)体系结构基础上,通过调整系统层次内部元素、调度策略和增加新元素等手段,构建的高并发大数据支持的在线学习系统体系架构为:第一、叁层结构中引入O-Session模型,第二层中采用NGINX做负载均衡,在第五层中引入面向系统的现代访问控制模型S-UCONabc;在第四层结合关系数据库与NoSQL数据库的优势,设计并构造了一个拥有17亿用户(数据库主表达TB数据量级)的在线学习系统的原型系统。在线学习的原型系统采用关系型数据库和NoSQL数据库联合存储的方案,实现思路如下:遵照原则1,将17亿用户基本信息,放入关系数据库oracle的分区表中;遵照原则2,学生选课、学生登录信息、学生认证信息、日志等信息存放在NoSQL数据库中。因为这些数据直接与核心业务主表相关联,产生出比核心主表多数倍或者几十倍的海量数据。遵照原则3,课程代码、教学计划、课程资源、系统的角色权限列表由管理员在生产库中维护,系统自动同步到NoSQL数据库中去,主要是为大量高并发的“读”操作业务服务。当这些数据在生产库中变动时,程序会保证NoSQL库中的数据与之保持一致;而针对系统的部分树状目录数据,因为其操作一般是按树形目录异步展开的,在设计时由用户第一次登录或者第一次操作时把数据生产库的数据同步到NoSQL中去。管理员如果对该部分数据进行维护引起变动,系统自动同步NoSQL对应树形目录的数据。遵照原则4,针对学习行为记录进行业务统计分析,另外建立一个供统计分析用的统计库,包含生产库中的所有表模式,数据则根据具体的统计分析业务选择该业务感兴趣的部分即可。如针对南京市的学生对数据库设计这门课的学习兴趣进行分析。从生产库中导出南京市的所有学生到统计库中;在riak服务器(属NoSQL数据库里一种典型的键值对数据库)上配置并启动solr搜索引擎,利用Map/reduce模式查找南京市学生的所有选课记录和点击资源的学习过程记录,插入到统计库。最后利用weka联机分析统计库中的数据。在线学习的原型系统的核心业务主表采用列表分区策略,以身份证号前6位为分区键值,将17亿数据均分到3479个分区中,每个分区约40万条记录,实现在单个分区上检索任意记录的速度保持在数十毫秒级,从而不影响用户体验。系统测试数据依据身份证编码规则,自动生成17亿多身份证号;身份证号对应的姓名,则依据百家姓随机生成。该测试数据,总量达到1TB。该原型系统实现了公民身份证号登录、教学计划、师生互动、选课、课件学习、课程答疑、课程作业、课程论坛、学习进度、考试安排、成绩查询、毕业论文等功能。本文创新点在于:1、提出了面向系统的现代访问控制模型S-UCONabc,能有效降低用户管理的难度,并提高了?
邹文科[5]2008年在《基于本体技术的语义检索及其语义相似度研究》文中进行了进一步梳理随着网络技术的发展和Internet上信息量的激增,信息检索系统作为网络信息平台的一个重要组成部分,在用户获取准确的网络信息过程之中发挥着重要的作用。传统的信息检索仅仅是基于语法层面上的简单匹配,缺乏对知识的表示、处理和理解能力,其实质在于信息资源缺少统一的语义描述,用户难以查询到与需求相关的信息,难以实现相关信息的语义融合,问题的关键在于将信息检索从传统的基于语法的简单匹配提升到基于语义知识层面。语义Web(Semantic Web)是WWW的发明人Tim Berners-Lee倡导的下一代万维网,致力于以计算机可处理形式表示信息。语义Web的目的是让计算机能够“理解”Web上的信息,并在“理解”的前提下更好地处理和利用这些信息,为人类提供更好的服务。本体具有良好的概念层次结构和对逻辑推理的支持,能够通过概念之间的关系来表达概念语义的能力,实现语义上的信息表示,可以很好地应用于信息检索。基于本体的信息检索不同于传统的关键词检索,利用本体知识库强化了概念之间的内在联系,通过逻辑推理可以发掘概念之间隐含的和不明确的信息,实现语义智能信息检索。首先对传统信息检索技术进行了分析研究,导致其检索质量低下的根本原因在于传统信息检索采用基于语法的匹配方式,缺乏检索信息的语义理解,探讨了将本体技术应用于信息检索,实现语义智能信息检索。其次分析研究了语义Web和本体技术,包括它的来源定义、框架结构、研究现状和应用等。语义Web是对现有万维网的扩展和进化,基于元数据和本体的语义和知识的表达,提供充分的丰富的语义信息使得机器可以理解,达到机器可以自动处理信息的能力。另外详细分析了本体技术在电信领域的应用情况,包括基于本体的网络系统管理集成信息模型、语义Web技术应用于上下文感知的智能移动Web服务和电信领域本体的构建等。接着重点研究分析了基于本体的语义智能信息检索的关键技术,包括本体技术、智能信息检索方法、领域本体构建和系统流程等。基于对传统信息检索技术的不足和本体技术,设计了基于领域本体的语义智能检索系统。分析了当前互联网上的手机商品在线网站的检索系统,提出了基于本体的语义智能检索系统框架模型,构建了实验系统的手机商品本体,并进行了智能信息检索系统的语义推理分析。在前面技术理论和系统技术设计的基础上,实现了基于本体的手机商品语义检索系统(MPPSRS)。该实验系统以手机商品领域为智能检索对象,通过本体的语义推理处理,可以充分发掘检索信息之间隐含的关联信息,为用户提供了良好的语义检索服务,从而在根本上解决传统信息检索中资源对象语义信息缺乏的问题,更加准确和全面地查询到用户需要的手机商品信息,实现语义智能信息检索。然后分析了当前概念相似度研究现状,结合本体技术,在构建的领域本体的基础上,提出了一种改进的基于领域本体的语义相似度的计算模型,该模型结合基于距离的语义相似度和基于属性的语义相似度,其中基于距离的语义相似度综合考虑并利用了本体类的层次关系中的多种影响因素,如语义重合度、语义层次深度、语义距离、语义密度以及相应的调节因子等,来计算领域本体内部概念之间的语义相似度。最后结合上一章具体探讨的改进的基于领域本体的语义相似度计算模型,设计并实现了基于本体的电子镇流器/荧光灯管产品检索推荐系统(BLPRRS)。分析了某公司的实际需求,基于本体技术,结合该公司产品特点,在抽取公司研发和销售的电子镇流器和荧光灯管产品,构建了电子镇流器和荧光灯管的本体库的基础上,实现了实验系统。通过调整实验系统中相应的各个调节因子,并将实验数据与专家主观判断进行比较,分析并验证了改进的语义相似度计算方法的效果,表明基于本体的语义相似度计算模型可以帮助扩展检索概念,提供有效的产品检索结果。
龙岳红[6]2008年在《地图Mashup的研究与实现》文中研究指明Mashup是一种新型的基于Web的数据集成应用程序,具有第二代Web应用程序的特点,正在Internet上逐渐兴起,将是Web2.0的流行趋势之一。本文是针对Mashup这一现象及地图Mashup构建进行研究和实践的总结,所做的主要工作如下:首先,针对Mashup的流行现状进行研究,总结陈述了Mashup分别作为应用程序或开发方式的含义,分析了它的产生背景。并就基础、特点、类型、架构、平台工具及发展关键技术几个方面对Mashup进行阐述,指出了Mashup开发模式具有开发简单、提倡重复使用以及其基于开放的标准、数据共享方便、开发成本低、具有业务敏捷性等特点。其次,对地图Mashup进行概述,总结与地图Mashup构建密切相关的技术,包括对目前使用频率较高的地图制图应用程序接口进行分析和对比;研究地图Mashup普遍支持的地理数据置标语言GeoRSS和KML/KMZ,以及GeoJSON数据格式中典型地理实体的表达方式;分析地图Mashup的数据来源,然后针对前面的数据格式总结数据的处理方法,为地图Mashup的构建打下基础。最后利用前面的研究成果,进行了地图Mashup程序构建的尝试,用实例说明Mashup开发方式的在构建GIS Web服务上具有开发简单,减少重复工作、数据共享方便快捷的优势,一定程度上可以满足GIS应用对业务敏捷性的要求。
彭小瑜[7]2006年在《基于web2.0概念的网站及其商业模式分析》文中研究表明当前我国互联网界的web2.0(互联网2.0)市场正呈现一片繁荣,并受到了互联网用户的追捧、风险投资商的青睐和研究者的开始关注。但是关于web2.0的系统研究的理论和实践都很缺乏,在实践上web2.0在运营模式上仍然存在很多缺陷,如盈利能力低下、商业模式缺乏等;在理论上关于web2.0的概念并不清晰,关于其商业模式理论也不系统。整个web2.0市场充斥大量的概念炒作和泡沫。关于web2.0的价值认识问题也缺乏理性,存在着将web2.0的价值进行大肆吹捧和无限贬低的两种倾向。本文站在一个互联网的从业者和关注web2.0发展的网民的角度出发,以国内具有代表性的一些web2.0网站和整个web2.0市场现状作为研究对象,通过广泛的观察和调查,将web2.0与web1.0开展分析和对比,调查并归纳了web2.0网站的现状和特点,研究了web2.0网站的技术特点和概念;选取“大众点评网”和“豆瓣网”进行了商业模式分析,具体研究了其运营特点、信息收集方式、价值增值方式、赢利方式、市场推广和未来走势,分析了web2.0网站的商业模式和存在的问题;对web2.0商业模式中的赢利问题进行了初步的分析,提出了web2.0的商业价值及赢利方式。本文针对国内互联网界对web2.0概念不明确、商业模式缺乏、找不到赢利方式的现状进行了剖析,一定程度上提出了解决方案,有助于广大互联网从业人员和有志于web2.0创业的创业者们理性认识web2.0的价值。
石勇[8]2008年在《Web服务安全问题及其对策研究》文中研究指明软件发展趋势之一是分布式计算,而分布式计算中的一种新技术即是Web服务。Web服务就是部署在Web上的对象,或者是Web上可以被其他应用程序访问的接口。基于XML和SOAP的Web服务具有互操作性、封装性、开放性、集成性、跨平台等特点。目前,安全问题是阻碍Web服务进一步发展的关键所在。Web服务在可靠性、可用性、保密性、数据完整性和不可否认性等方面都面临着巨大的安全挑战。因此,根据Web服务的特点及其面临的安全风险,提出一套合理、可行、全面的解决方案,是让Web服务在电子商务、数字图书馆、系统集成等领域广泛应用的关键所在。论文的重点在于提出相应的安全对策。在技术方面,该对策既力求利用最新的技术规范,又综合成熟的安全技术。另一方面,信息安全既是一个技术问题,又是一个非技术问题。其中,非技术问题涉及管理、信息安全法律法规、教育培训等因素。因此,论文中所提出的安全措施既利用了一系列最新的、基于XML消息的Web服务安全技术,又包含了法律法规、管理制度、教育培训等非技术性措施。本文还尽可能地做到技术性安全措施与非技术性措施的有效结合。Web服务在数字图书馆建设中起着非常重要的作用。利用Web服务架构的特点,可以解决当前数字图书馆中分布式异构环境下的资源整合问题,实现基于Web服务的分布式数字图书馆。目前,基于Web服务的数字图书馆共享原型已经被提出来,安全问题也是基于Web服务的数字图书馆建设中需要考虑的重要因素。论文对基于Web服务的数字图书馆的安全需求进行了分析。在此基础上,提出了针对数字图书馆应用环境的安全框架和实现途径。论文还进行了实际案例分析,以服务于英国着名高校(如Heriot-Watt University、The University of Manchester)和科研机构图书馆的Zetoc Web服务等作为具体案例,对其安全措施、安全体系进行了分析。最后,总结出基于Web服务的数字图书馆最佳安全实践方案。
轩艳艳[9]2008年在《基于XML的Web信息抽取研究与实现》文中研究指明随着互联网的快速发展以及Web数据的日益庞大,用户从Web中获取有用信息变得日益困难,如何快速有效地从Web中准确寻找信息已经成为亟待解决的问题,Web信息抽取技术应运而生。从网页中抽取信息的程序叫包装器(Wrapper),构建包装器的主要任务是编写抽取规则,因此,编写健壮灵活的抽取规则成为信息抽取的研究重点。针对Web信息抽取,人们已经提出了各种包装器构造方法,但这些方法都有其应用的局限性。随着XML技术的不断发展,XML在Web信息抽取中的应用价值日益凸现。本文在研究现有的Web信息抽取技术的基础上,把标准的XML技术运用于Web信息抽取中,提出了一种基于XML的通用Web信息抽取解决方案。本文的主要贡献有以下几点:1.设计并实现了一个通用的Web信息抽取系统。通过该系统用户能够把HTML页面中感兴趣的信息点抽取出来,用结构化和扩展性强的XML来表示抽取结果。该系统具有一定的通用性和灵活性,用户能够快速定制应用于不同领域的Web信息抽取包装器。2.提出并实现了一种基于XML的Web数据转化算法。该数据转换算法能够有效地把HTML格式的文档转化为XHTML(XML)格式的文档,它是系统对HTML页面进行清洗的技术支持,极大地简化了Web信息抽取工作。3.提出并实现了一种基于DOM的XPath生成算法。本文的信息定位是建立在XPath之上的,而在XHTML文档中定位信息点并编写XPath路径比较困难,本文提出的XPath生成算法很好地解决了这个问题。4.利用XSLT作为抽取规则的描述语言,并使用XPath来定位待抽取信息点,这有利于抽取模式的统一。对于单信息块的抽取,本系统实现了抽取规则的自动生成。对于多信息块的抽取,在获得所有待抽取节点的XPath后,对抽取模板进行合并处理得到抽取规则。同时可使用数据定位优化方法来优化规则。本文提出的Web信息抽取思想能够较好地解决Web信息抽取的问题,同时,该系统的召回率和准确率都能够达到较高的比例。
高岭[10]2007年在《Deep Web分类搜索引擎关键技术研究》文中研究说明随着World Wide Web(WWW)的飞速发展,整个Web信息已经被各种各样可搜索的在线数据库所深化。这些信息被隐藏在Web查询接口之后,由站点后台数据库动态产生,而传统搜索引擎受技术限制无法对它们进行索引,我们称这类信息为Deep Web。Deep Web信息获取至今仍然是一个新兴的研究领域,也受到越来越多研究人员的重视。为了方便用户获取使用某领域的Deep Web信息,本文提出了一个Deep Web分类搜索引擎的系统架构,依据这个系统架构对Deep Web分类搜索引擎中若干关键问题进行了分析研究,并提出了相关的算法和模型。本文主要研究的工作包括:(1)对中国Deep Web资源的规模、分布、结构等进行了调查研究。(2)针对传统搜索引擎爬虫程序在Deep Web领域的缺陷,设计了一个面向Deep Web的聚焦爬虫,并提出了Deep Web查询接口的判定方法。(3)采用一种高效的Web数据库内容获取算法,对Web数据库内容进行采样,并对采样得到的页面进行分析,去除了无关信息,最终得到Web数据库的内容摘要。(4)依据雅虎的分类目录,提出了一种将Deep Web站点接口页面与数据库内容摘要相结合的方法,对Deep Web资源进行分类。本文最后设计和实现了一个针对中文的Deep Web分类搜索引擎原型系统Deep Searcher,并对文中提出的算法进行了实验和分析。
参考文献:
[1]. 基于WEB的工业远程监控系统研究与实现[D]. 汪娟. 武汉理工大学. 2008
[2]. Web界面中的信息设计研究[D]. 封红莲. 上海交通大学. 2008
[3]. Ajax技术在Web系统中的应用研究[D]. 冯振兴. 北京林业大学. 2008
[4]. 高并发大数据在线学习系统中的关键技术研究[D]. 王承军. 中国地质大学. 2015
[5]. 基于本体技术的语义检索及其语义相似度研究[D]. 邹文科. 北京邮电大学. 2008
[6]. 地图Mashup的研究与实现[D]. 龙岳红. 中南大学. 2008
[7]. 基于web2.0概念的网站及其商业模式分析[D]. 彭小瑜. 华中科技大学. 2006
[8]. Web服务安全问题及其对策研究[D]. 石勇. 北京师范大学. 2008
[9]. 基于XML的Web信息抽取研究与实现[D]. 轩艳艳. 武汉理工大学. 2008
[10]. Deep Web分类搜索引擎关键技术研究[D]. 高岭. 苏州大学. 2007
标签:互联网技术论文; nosql论文; 数据库系统的特点论文; 大数据论文; 网络负载均衡论文; nginx负载均衡配置论文; web技术论文; 用户研究论文; 语义分析论文; 数据抽取论文; web容器论文; 网络模型论文; web开发论文; 用户分析论文; 数据检索论文; 流量统计论文; 系统学习论文; web服务器论文;