流索引论文-陈震,刘洪健

流索引论文-陈震,刘洪健

导读:本文包含了流索引论文开题报告文献综述及选题提纲参考文献,主要关键词:计算机网络,搜索引擎,网流信息检索,索引压缩

流索引论文文献综述

陈震,刘洪健[1](2014)在《基于倒排列表的网流索引检索与压缩方法》一文中研究指出随着计算机的广泛应用以及互联网的飞速发展,互联网流量呈现爆炸式增长的态势。为了应对日益严重的网络滥用以及网络安全事件,出于安全取证的需要,必须对互联网流量进行收集、存储和分析。互联网流量的监控需要及时统计网络流量的源地址、目的地址、源端口、目的端口、协议、时间戳等信息,以便进行流量统计和综合分析。但是网络流量信息是海量的,如何快速检索相关流量是一个挑战性问题。在搜索引擎中,为了处理海量数据检索,倒排索引是快速搜索技术的关键方法。文章把搜索引擎中的倒排索引方法和索引压缩算法应用到互联网网流信息检索中。通过实验测试和验证,在网流信息检索中,倒排索引以及索引压缩算法能够有效提高检索速度。(本文来源于《信息网络安全》期刊2014年04期)

夏伟建[2](2012)在《基于哈希表和流索引的XML过滤模型的研究》一文中研究指出XML (eXtensible Markup Language,可扩展标记语言)自1998年出现以来,已经成为互联网数据交换格式的标准。大量与之相关的应用,如消息通知系统、个人个性化信息等都需要对信息进行过滤。如何对XML的数据进行高效的过滤,已经成为近年来XML的热点研究问题之一。近些年,人们在对XML过滤的研究中,已经取得了一系列成果。其中,许多理论模型和上具,都已经很成熟。例如,XPath、自动机等有关理论已经形成了各种各样的应用机制。以XFilter的出现为代表,YFilter、lazy DFA等一系列与自动机有关的理论,被广泛应用到XML的过滤中,而各种自动机的有关模型也不断的被研究出来,这也是当前XML过滤应用所广泛使用的技术。存XML的过滤中,要考虑的是如何减少过滤时的开销,提高过滤的效率,从而追求效益的最大化,这其中,如何减少无效元素的处理,减少文档的解析量,便成为一个重要途径,本文相关的研究上作也由此而展开。减少无效元素的处理,包括两个方面,一是如何快速断定某些元素是无效元素,二是如何对这些无效元素进行处理。本文通过引入哈希表,来对无效元素进行判断,通过引入流索引,来对无效元素进行跳过,从而提高过滤的效率。哈希表存储了元素的位置信息,可以快速判断文档中任意两个元素的层次关系,以便判断元素是否为无效元素。过滤时,祖先后代关系“//”的处理往往需要消耗大量时间,因为如果有元素可以匹配该关系,那么无论该元素存文档的何种深度,都满足过滤条件,而对该元素判断的过程中,需要大量的压入堆栈操作,所耗用的时间和空间太大。存本文中,通过引入哈希表,存遇到祖先后代关系“//”,可以不必先将其压入堆栈,而是通过查找哈希表,看需要过滤的元素是否满足过滤条件,如果是,压入堆栈进行操作,如果否,则结合流索引进行跳过。流索引标记了元素的开始位置和结束位置,当遇到无效元素时,可以通过结束标记,对无效元素及其子孙元素进行直接跳过,从而避免无效元素的处理,从而提高解析效率。实验表明,当输入的文档深度较大和文档中的祖先后代关系较多时,本文中的方法要优于传统XML过滤方法的效率。(本文来源于《山东大学》期刊2012-04-20)

黎立文,刘先锋[3](2010)在《基于流索引的XPath查询谓词处理模型》一文中研究指出XML流数据处理在研究领域引起了研究者的广泛兴趣,针对多XPath查询中存在大量的相同谓词,提出了一种XPath查询谓词处理模型。为了提高查询处理性能,引入了流索引技术。本文给出了该模型的基本思想与模型结构,通过实验表明,该模型能够较好的提高查询效率。(本文来源于《重庆教育学院学报》期刊2010年03期)

魏东平,张宏伟,王金凤[4](2007)在《一种基于流索引的XML数据流的Xpath查询算法》一文中研究指出XML数据流查询过程中,核心操作是父子、祖孙节点的匹配问题。解决这一问题的有效途径是根据查询表达式构造非确定状态自动机,顺序处理解析后的节点,在这个过程中大量与查询无关的节点也参与了匹配。通过对XML数据流添加流索引,在执行查询时,直接跳过与查询不匹配的元素及其子树节点,提高了查询效率。(本文来源于《计算机系统应用》期刊2007年02期)

流索引论文开题报告

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

XML (eXtensible Markup Language,可扩展标记语言)自1998年出现以来,已经成为互联网数据交换格式的标准。大量与之相关的应用,如消息通知系统、个人个性化信息等都需要对信息进行过滤。如何对XML的数据进行高效的过滤,已经成为近年来XML的热点研究问题之一。近些年,人们在对XML过滤的研究中,已经取得了一系列成果。其中,许多理论模型和上具,都已经很成熟。例如,XPath、自动机等有关理论已经形成了各种各样的应用机制。以XFilter的出现为代表,YFilter、lazy DFA等一系列与自动机有关的理论,被广泛应用到XML的过滤中,而各种自动机的有关模型也不断的被研究出来,这也是当前XML过滤应用所广泛使用的技术。存XML的过滤中,要考虑的是如何减少过滤时的开销,提高过滤的效率,从而追求效益的最大化,这其中,如何减少无效元素的处理,减少文档的解析量,便成为一个重要途径,本文相关的研究上作也由此而展开。减少无效元素的处理,包括两个方面,一是如何快速断定某些元素是无效元素,二是如何对这些无效元素进行处理。本文通过引入哈希表,来对无效元素进行判断,通过引入流索引,来对无效元素进行跳过,从而提高过滤的效率。哈希表存储了元素的位置信息,可以快速判断文档中任意两个元素的层次关系,以便判断元素是否为无效元素。过滤时,祖先后代关系“//”的处理往往需要消耗大量时间,因为如果有元素可以匹配该关系,那么无论该元素存文档的何种深度,都满足过滤条件,而对该元素判断的过程中,需要大量的压入堆栈操作,所耗用的时间和空间太大。存本文中,通过引入哈希表,存遇到祖先后代关系“//”,可以不必先将其压入堆栈,而是通过查找哈希表,看需要过滤的元素是否满足过滤条件,如果是,压入堆栈进行操作,如果否,则结合流索引进行跳过。流索引标记了元素的开始位置和结束位置,当遇到无效元素时,可以通过结束标记,对无效元素及其子孙元素进行直接跳过,从而避免无效元素的处理,从而提高解析效率。实验表明,当输入的文档深度较大和文档中的祖先后代关系较多时,本文中的方法要优于传统XML过滤方法的效率。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

流索引论文参考文献

[1].陈震,刘洪健.基于倒排列表的网流索引检索与压缩方法[J].信息网络安全.2014

[2].夏伟建.基于哈希表和流索引的XML过滤模型的研究[D].山东大学.2012

[3].黎立文,刘先锋.基于流索引的XPath查询谓词处理模型[J].重庆教育学院学报.2010

[4].魏东平,张宏伟,王金凤.一种基于流索引的XML数据流的Xpath查询算法[J].计算机系统应用.2007

标签:;  ;  ;  ;  

流索引论文-陈震,刘洪健
下载Doc文档

猜你喜欢