基于主题网络爬虫的信息数据采集方法的研究与应用

基于主题网络爬虫的信息数据采集方法的研究与应用
基于主题网络爬虫的信息数据采集方法的研究与应用

基于主题网络爬虫的信息数据采集方法的研究与应用

互联网上的各种信息以数百万级的方式增长着,而这些信息又大多是散乱分布的,无法满足人们所要求的整合信息分析的需求,传统的采集和收集方法又很难满足要求。因此本文提出利用主题网络爬虫的概念和方法,运用正则表达式去匹配出网页中所需要的特定信息数据,有效的增强爬虫程序的适用性、缩短用户获取信息的时间。并将此方法应用于二手房信息数据采集中,包括价格、户型、楼层等基本数据,建立起了一个统一的二手房数据库。

【关键词】主题网络爬虫正则表达式二手房

1 引言

互联网上的信息数据以爆炸式的方式增长着,而这些信息数据内容又大多是基于页面形式的,其中包含一些非结构化的数据,如文字、图像、视频等。如果只是采用人工化的方式对信息数据进行采集,已经很难满足人们的要求了。因此有必要采用某种技术或手段从互联网上自动采集信息数据。

网络爬虫能实现对互联网信息数据的自动采集,从而弥补了人工采集的缺陷。网络爬虫是随着搜索引擎发展而产生的一种通用信息采集技术,是搜索引擎中的核心部分,它根

据用户要求从互联网上下载网页,尽可能多的抓取网页中的相关链接和内容,并能沿着链接继续爬行,是一种能力强大的信息采集程序。

2 主题网络爬虫

主题网络爬虫是在通用网络爬虫的基础上进行的延伸,根据某一领域内特定的主题进行相关信息的查询,搜索互联网抓取下载网页,从网页中采集相关信息数据和超链接。它并不会访问所有的网页,而是在访问前就判断超链接、锚文本、文本等与主题的相关度,按照相关度的高低来决定访问的优先级顺序。

主题网络爬虫的主要思想就是:把用户搜索的查询词作为主题,从选定的初始URL出发,访问网页中的所有超链接,根据某种搜索策略对这些URL进行主题相关度预测,将符合要求的URL加入待访问队列中,并按照某种优先级排序从队列中抽取URL来作为下一次要访问的对象,按照这种规律执行下去,直到待访问队列为空或者满足某种停止条件为止。

3 基于主题网络爬虫的信息数据采集方法与应用

通过分析网站页面时发现,页面中关于某一项主题的结构和框架都是一样的,因此可以考虑运用正则表达式去匹配出页面中我们所需要的链接和内容。下面以安居客网站为例进行二手房数据的采集。

3.1 网站页面分析

3.1.1 链接地址页面分析

通过观察安居客青岛市二手房的房源列表,我们发现,每一条房源信息的组织结构是一样的,如房源地址的链接是上下结构排列的,价格,面积等信息的结构排列都是在同一个位置的。深入分析页面源代码发现,每一个房源链接的地址都是在herf=””引号之间,因此可以得出匹配房源链接地址的正则表达式:"\s* 3.1.2 房源具体信息页面分析网站具体页面中包含有房屋的售价、面积等基本信息,我们所建立的二手房数据库就是把这些字段全部收集起来,放到一个数据表中以供后期使用。观察网页源码我们可以发现,有些内容的源代码前后的HTML标签是不一样的,因此,就有必要对我们所需要的每一项内容写一个正则表达式,以匹配面积内容为例,可以得到正则表达式为:面积\s*([^,括号中为匹配结果。

3.2 采集流程

用户选取要抓取的网站,系统由初始URL开始访问网站,下载分析URL的源代码,利用编写好的正则表达式去匹配出此页中的超链接和文本内容,将超链接加入到待抓取队列中的同时,将文本内容存入数据库中,根据先进先出的次序从待抓取队列中抽取出新的URL开始访问,依次进行下去,直到待抓取队列为空或者满足系统停止条件为止。

3.2.1 获取网页源代码

爬虫对网页抓取的原理是通过Http协议请求访问指定

的URL资源,URL资源以html文档的形式返回给爬虫,然后通过对html文档的解析完成信息的采集任务。首先,获得URL后,系统通过Http协议发出访问请求,一般采用GET方法;其次,根据HTTP响应判断是否已成功加载此URL,如果成功加载,就会将网页送到Html解析器中,根据UTF-8

编码形式,将语言转换成一个统一的编码形式,否则得到的就会是乱码;最后,将得到的网页源码返回到一个变量中。

3.2.2 获取房源链接地址列表

在系统设计的时候,定义了三个存储URL的队列:预读房源队列、已读房源队列、错误房源队列。预读房源队列用于存储将要访问的URL队列,已读房源队列用于存储已经访问过并成功采集信息的URL,错误房源队列用于存储不能访问到的URL队列。这3个队列都是用动态数组进行存储和表示的。

对选定的初始URL进行访问和处理,由于Http响应的网页是以字符串类型返回的,其中包含了大量的html代码,这时就需要事先编写好的正则表达式对其进行匹配,可以从title、meta等标签中提取出所需要的信息。通过上文描述的匹配房源链接地址的正则表达式来匹配出初始网页所含有

的房源超链接地址,将其加入到预读房源队列中,同时利用正则表达式下一页\s>;"匹配出下一页的链接地址,并以

下一页的链接地址为初始URL,循环执行这一过程,直到下一页的地址为空或者满足停止条件为止。得到的匹配结果如图1所示。

3.2.3 获取房源信息数据

判断预读房源队列是否为空,如果队列为空,说明没有要继续爬行访问的URL了,此时就结束爬行了,如果队列不为空,则从预读房源队列中取出队首的URL进行访问,如果成功加载网页,得到网页的源代码,根据编写好的正则表达式对其进行匹配,并把匹配下来的内容保存到二手房数据库中。最后,将当前URL加入到已读房源队列中,如果访问不成功,就将此URL加入到错误房源队列中。循环执行这一过程,直到预读房源队列为空或者满足停止条件为止。

网页展现给用户的主要内容是它的文本信息。因此,在获得网页源代码后,需要针对网页抽取出它的特定内容。从预读房源队列中取出URL,解析其源代码,利用正则表达式匹配出其页面的具体信息,存入到数据库中。以小区、户型、面积为例,其正则表达式如图2所示。

根据要求,创建二手房数据库后,将匹配到的房产信息数据存入到数据库中。得到的二手房数据库部分结果如图3所示。

4 总结

本文实现了一种切实可行的通过正则表达式去匹配信

息数据的方法,满足用户对特定信息的需求,并将此方法应用于了二手房信息数据的采集中,成功抓取了网站上的二手房信息数据,建立起了一个二手房数据库。

参考文献

[1]孙骏雄.基于网络爬虫的网站信息采集技术研究[D].大连海事大学,2014.

[2]Dikaiakos M D,Stassopoulou A,Papageorgiou L.An investigation of web crawler behavior:characterization and metrics[J]. Physical Chemistry Chemical Physics,2001,3(5):867-872.

[3]罗刚.自己动手写网络爬虫[M].北京:清华大学出版社,2010.

[4]杨文刚,韩海涛.大数据背景下基于主题网络爬虫的档案信息采集[J].兰台世界(旬刊),2015(20):20-21.

作者单位

中国海洋大学信息科学与工程学院山东省青岛市266100

网络爬虫工作原理

网络爬虫工作原理 1 聚焦爬虫工作原理及关键技术概述 网络爬虫是一个自动提取网页的程序,它为搜索引擎从Internet网上下载网页,是搜索引擎的重要组成。传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。聚焦爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL,并重复上述过程,直到达到系统的某一条件时停止,另外,所有被爬虫抓取的网页将会被系统存贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索;对于聚焦爬虫来说,这一过程所得到的分析结果还可能对以后的抓取过程给出反馈和指导。 相对于通用网络爬虫,聚焦爬虫还需要解决三个主要问题: (1) 对抓取目标的描述或定义; (2) 对网页或数据的分析与过滤; (3) 对URL的搜索策略。 抓取目标的描述和定义是决定网页分析算法与URL搜索策略如何制订的基础。而网页分析算法和候选URL排序算法是决定搜索引擎所提供的服务形式和爬虫网页抓取行为的关键所在。这两个部分的算法又是紧密相关的。 2 抓取目标描述 现有聚焦爬虫对抓取目标的描述可分为基于目标网页特征、基于目标数据模式和基于领域概念3种。

基于目标网页特征的爬虫所抓取、存储并索引的对象一般为网站或网页。根据种子样本获取方式可分为: (1) 预先给定的初始抓取种子样本; (2) 预先给定的网页分类目录和与分类目录对应的种子样本,如Yahoo!分类结构等; (3) 通过用户行为确定的抓取目标样例,分为: a) 用户浏览过程中显示标注的抓取样本; b) 通过用户日志挖掘得到访问模式及相关样本。 其中,网页特征可以是网页的内容特征,也可以是网页的链接结构特征,等等。现有的聚焦爬虫对抓取目标的描述或定义可以分为基于目标网页特征,基于目标数据模式和基于领域概念三种。 基于目标网页特征的爬虫所抓取、存储并索引的对象一般为网站或网页。具体的方法根据种子样本的获取方式可以分为:(1)预先给定的初始抓取种子样本;(2)预先给定的网页分类目录和与分类目录对应的种子样本,如Yahoo!分类结构等;(3)通过用户行为确定的抓取目标样例。其中,网页特征可以是网页的内容特征,也可以是网页的链接结构特征,等等。 基于目标数据模式的爬虫针对的是网页上的数据,所抓取的数据一般要符合一定的模式,或者可以转化或映射为目标数据模式。 另一种描述方式是建立目标领域的本体或词典,用于从语义角度分析不同特征在某一主题中的重要程度。 3 网页搜索策略 网页的抓取策略可以分为深度优先、广度优先和最佳优先三种。深度优先在很多情况下会导致爬虫的陷入(trapped)问题,目前常见的是广度优先和最佳优先方法。

网络爬虫技术(新)

网络爬虫技术 网络机器人 1.概念: 它们是Web上独自运行的软件程序,它们不断地筛选数据,做出自己的决定,能够使用Web获取文本或者进行搜索查询,按部就班地完成各自的任务。 2.分类: 购物机器人、聊天机器人、搜索机器人(网络爬虫)等。 搜索引擎 1.概念: 从网络上获得网站网页资料,能够建立数据库并提供查询的系统。 2.分类(按工作原理): 全文搜索引擎、分类目录。 1> 全文搜索引擎数据库是依靠网络爬虫通过网络上的各种链接自动获取大量 网页信息内容,并按一定的规则分析整理形成的。(百度、Google) 2> 分类目录:按目录分类的网站链接列表而已,通过人工的方式收集整理网 站资料形成的数据库。(国内的搜狐) 网络爬虫 1.概念: 网络爬虫也叫网络蜘蛛,它是一个按照一定的规则自动提取网页程序,其会自动的通过网络抓取互联网上的网页,这种技术一般可能用来检查你的站点上所有的链接是否是都是有效的。当然,更为高级的技术是把网页中的相关数据保存下来,可以成为搜索引擎。 搜索引擎使用网络爬虫寻找网络内容,网络上的HTML文档使用超链接连接了起来,就像织成了一张网,网络爬虫也叫网络蜘蛛,顺着这张网爬行,每到一个网页就用抓取程序将这个网页抓下来,将内容抽取出来,同时抽取超链接,作为进一步爬行的线索。网络爬虫总是要从某个起点开始爬,这个起点叫做种子,你可以告诉它,也可以到一些网址列表网站上获取。

现有聚焦爬虫对抓取目标的描述可分为基于目标网页特征、基于目标数据模式和基于领域概念3种。 基于目标网页特征的爬虫所抓取、存储并索引的对象一般为网站或网页。根据种子样本获取方式可分为: (1)预先给定的初始抓取种子样本; (2)预先给定的网页分类目录和与分类目录对应的种子样本,如Y ahoo!分类结构等; (3)通过用户行为确定的抓取目标样例,分为: a) 用户浏览过程中显示标注的抓取样本; b) 通过用户日志挖掘得到访问模式及相关样本。 其中,网页特征可以是网页的内容特征,也可以是网页的链接结构特征,等等。 一些算法的介绍 1> 网页分析算法

Python网络爬虫技术 第1章 Python爬虫环境与爬虫简介 教案

第1章Python爬虫环境与爬虫简介 教案 课程名称:Python网络爬虫技术 课程类别:必修 适用专业:大数据技术类相关专业 总学时:32学时(其中理论14学时,实验18学时) 总学分:2.0学分 本章学时:2学时 一、材料清单 (1)《Python网络爬虫技术》教材。 (2)配套PPT。 (3)引导性提问。 (4)探究性问题。 (5)拓展性问题。 二、教学目标与基本要求 1.教学目标 先对爬虫的概念和原理,及反爬虫的概念进行基本的概述,列举针对反爬虫的常用手段制定对应爬取策略。而后简要介绍了Python常用爬虫库和爬虫环境,以及用于存储爬取的数据的MySQL、MongoDB数据库。 2.基本要求 (1)了解爬虫的原理。

(2)了解爬虫运作时应遵守的规则。 (3)了解反爬虫的目的和常用手段。 (4)了解Python常用爬虫库。 (5)掌握MySQL、MongoDB数据库的配置方法。 三、问题 1.引导性提问 引导性提问需要教师根据教材内容和学生实际水平,提出问题,启发引导学生去解决问题,提问,从而达到理解、掌握知识,发展各种能力和提高思想觉悟的目的。 (1)爬虫能够做什么? (2)爬虫能爬哪些数据? (3)Python语言在爬虫方面有哪些优势? 2.探究性问题 探究性问题需要教师深入钻研教材的基础上精心设计,提问的角度或者在引导性提问的基础上,从重点、难点问题切入,进行插入式提问。或者是对引导式提问中尚未涉及但在课文中又是重要的问题加以设问。 (1)爬虫能够应用在那些场景? (2)爬虫的原理是什么? 3.拓展性问题 拓展性问题需要教师深刻理解教材的意义,学生的学习动态后,根据学生学习层次,提出切实可行的关乎实际的可操作问题。亦可以提供拓展资料供学生研习探讨,完成拓展性问题。 (1)爬虫是不是万能的? (2)爬虫在数据分析有哪些作用?

网络爬虫的设计与实现(完整版)

网络爬虫的设计与实现

摘要 网络爬虫将下载的网页和收集到的网页信息存储在本地数据库中以供搜索引擎使用,它是一个专门从万维网上下载网页并分析网页的程序。随着网络的快速发展,人们对搜索引擎的要求也越来越高,而网络爬虫的效率直接影响着搜索引擎的质量。 本课题研究的是通用网络爬虫,它是从一个或若干个初始网页的链接开始进而得到一个链接队列。伴随着网页的抓取又不断从抓取到的网页中抽取新链接放入到链接队列中,直到爬虫系统满足了停止条件。该课题主要涉及到了缓冲池技术,多线程技术,套接字技术,HTTP和SSL协议,正则表达式,Linux网络编程技术,PHP+Apache的使用等相关技术。 本说明书叙述的网络爬虫是以Linux C实现的,加以PHP语言编写的界面使用户更加方面的操作,利用Shell脚本和Apache服务器使得爬虫系统和界面很好的结合在一起。 关键词:网络爬虫缓冲池正则表达式 SSL协议多线程

目次 1 引言 (1) 1.1 课题选题背景 (1) 1.2 课题研究的意义 (2) 2 需求分析 (3) 2.1 功能需求分析 (3) 2.2 系统性能分析 (4) 3 系统设计 (5) 3.1 系统工作流程图 (5) 3.2 数据结构设计 (6) 3.3 系统各功能流程图 (7) 4 系统实现 (10) 4.1 相关技术分析 (10) 4.2 系统功能模块的实现 (11) 5 测试与结果 (17) 结论 (23) 致谢............................................................................................ 错误!未定义书签。参考文献. (24)

Python网络爬虫技术 第7章 Scrapy爬虫 教案

第7章Scrapy爬虫 教案 课程名称:Python网络爬虫技术 课程类别:必修 适用专业:大数据技术类相关专业 总学时:32学时(其中理论14学时,实验18学时) 总学分:2.0学分 本章学时:5学时 一、材料清单 (1)《Python网络爬虫技术》教材。 (2)配套PPT。 (3)引导性提问。 (4)探究性问题。 (5)拓展性问题。 二、教学目标与基本要求 1.教学目标 使用Scrapy框架爬取网站,学会Scrapy的数据流向、框架,以及框架各组成部分的作用。Scrapy的常用命令及其作用。创建Scrapy爬虫项目,创建爬虫模板的方法。根据项目最终目标修改items/piplines脚本。编写spider脚本,解析网页。修改settings脚本,实现下载延迟设置等。定制下载中间件,实现随机选择访问USER_AGENT与IP。 2.基本要求

(1)了解Scrapy爬虫框架。 (2)熟悉Scrapy常用命令。 (3)修改items/piplines脚本存储数据。 (4)编写spider脚本解析网页信息。 (5)修改settings脚本设置爬虫参数。 (6)定制Scrapy中间件。 三、问题 1.引导性提问 引导性提问需要教师根据教材内容和学生实际水平,提出问题,启发引导学生去解决问题,提问,从而达到理解、掌握知识,发展各种能力和提高思想觉悟的目的。 (1)如何实现对爬取过的内容不重新爬取? 2.探究性问题 探究性问题需要教师深入钻研教材的基础上精心设计,提问的角度或者在引导性提问的基础上,从重点、难点问题切入,进行插入式提问。或者是对引导式提问中尚未涉及但在课文中又是重要的问题加以设问。 (1)如何实现日志打印到文件中? (2)piplines脚本中item是什么数据类型? (3)如何实现保存数据到MongoDB数据库? 3.拓展性问题 拓展性问题需要教师深刻理解教材的意义,学生的学习动态后,根据学生学习层次,提出切实可行的关乎实际的可操作问题。亦可以提供拓展资料供学生研习探讨,完成拓展性问题。 (1)Requests库和Scarpy库对比各有什么优缺点? (2)Scarpy如何实现人工验证码验证?

定向网络爬虫-开题报告

山东科技大学 本科毕业设计(论文)开题报告 题目网络爬虫 定向爬取?脚本之家?文本信息 学院名称信息科学与工程学院 专业班级计算机科学与技术2012级2班 学生姓名包志英 学号 2 指导教师赵中英 填表时间:二0一六年三月二十八日

下,并不能很稳定的工作,内存消耗随着程序的运行而不断增大,直到达到jvm 分配的上限而崩溃。很多时候,你只能做个权衡,每个webclient使用若干次后就把它回收,然后重新启动一个,这非常影响性能。Rhino对于javascript的支持并不好,实际使用中,会发现各种Exception,很多时候会导致无法渲染出想要的结果,这个htmlunit的又一大缺陷。随着版本的更新,能够渐次解决一些问题,但是好的程序员,还是应该自己读源码来尝试解决问题。 Phantomjs相比于htmlunit,对于js的支持更接近真实的浏览器,但是并发性能差,通过java的exec调用系统命令来启动,更加降低了性能。 此外主流的浏览器都提供了相应的抓取支持,selenium可谓是一个集大成者,包含了上述的所有组件,以WebDriver的形式,适配各种爬虫组件,你可以用它操控浏览器自动抓取,当然,并发和性能的问题依然存在。 爬虫开发的主要问题是性能和反封锁。很多时候,采用高并发高频率抓取数据是可行的,前提是目标站点没有采用任何反爬措施(访问频率限制、防火墙、验证码……);更多时候,有价值的信息,一定伴随着严格的反爬措施,一旦ip 被封,什么组件都没戏了。你不得不维护一个代理IP池来解决这个问题,当然,这也带来了代理ip稳定性和速度的问题,这些问题都是无法回避的问题,我们需要针对具体的情况,采用对应的措施,以最大限度的完成爬虫爬取任务。 目前,爬虫的需求呈爆炸式增长的趋势,这是当前各种互联网创新和大数据时代的新常态。火车和八爪鱼等团队看到了这一点,并率先开发了相对完备的爬虫产品,很多用户都在使用,但是更多的用户希望直接把爬虫抓取任务外包出去,因为他们不懂技术,工具的使用需要逾越技术的鸿沟,大部分用户并没有这个逾越鸿沟的打算。我相信像猪八戒这样的技术外包平台会活的越来越好,我也相信各个技术门类会不断聚集,形成相对独立的社区,P2P的社区平台将提供爬虫开发者和爬虫需求者更加通畅的交流渠道。 目前,淘宝等平台上出现很多爬虫服务商,如,这种定制开发的服务,增加了服务商的成本,服务往往是一次性的,满足了一个用户的需求,然而具有相似需求的用户,却很难有机会找到这个服务商,这就是为什么我们需要爬虫信息交流的平台。 我有意建立这样的平台,不管是微博、微信公众号、文章,还是政府门户的

爬虫技术是什么

https://www.360docs.net/doc/ef2610580.html, 爬虫技术是什么 爬虫就似乎对于做数据分析、人工智能、SEOSEM的人来说非常熟悉,是日常工作中都需要用到或者得非常熟悉的一种数据采集的技术。 爬虫技术是什么 互联网上有着无数的网页,包含着海量的信息。但很多时候,无论出于数据分析或产品需求,我们需要从某些网站,提取出我们感兴趣、有价值的内容,但是我们不可能去每一个网页去点去看,然后再复制粘贴。所以我们需要一种能自动获取网页内容并可以按照指定规则提取相应内容的程序,这就是爬虫技术。 爬虫技术能用来做哪些好玩的事情 利用爬虫技术挖掘社交网站,比如有知乎大牛挖掘Twitter数据,然后分析一般大家几点睡觉,通过统计一下sleep这个词在twitter上出现的频率。又比如如何判断一个用户的职业,验证六度分隔理论, 以及网络扩张速度的建模。

https://www.360docs.net/doc/ef2610580.html, 利用爬虫技术建立机器翻译的语料库。具体思路可以参考知乎大V刘飞的文章:网上双语的资源还是挺多的,利用爬虫技术在爬取网页时对当前网页进行简易判断,如果有双语嫌疑,则收录整理出来双语的正文;如果没有,弃用; 将正文内容进行详细判断,确定是双语文本,则进行段落对齐和句子对齐,整理到语料库;如果没有,弃用;对当前网页的所有链接网页,重复步骤。抓取大量的这种数据之后,就可以建立一个庞大的语料库了。 3、利用爬虫技术预测票房。利用爬虫技术抓取新浪博客某部电影相关的数据,然后利用微博上大家表现出来的,对某部电影的期待值和关注度,来预测其票房。 4、利用爬虫技术抓取数据训练AI,比如知乎用户grapeot爬了知乎12万用户的头像,把长得像的头像放在一起,方便浏览,然后搜集了用户的点击,预测出来这是你们(平均)最喜欢的人长的样子:然后根据点击数据训练出来了一个机器人,可以自动识别美女。

社交网络数据采集算法的设计软件工程课程设计报告

软件工程课程设计 社交网络数据收集算法的设计

摘要 随着互联网的发展,人们正处于一个信息爆炸的时代。社交网络数据信息量大、主题性强,具有巨大的数据挖掘价值,是互联网大数据的重要组成部分。一些社交平台如Twitter、新浪微博、人人网等,允许用户申请平台数据的采集权限,并提供了相应的API 接口采集数据,通过注册社交平台、申请API授权、调用API 方法等流程获取社交信息数据。但社交平台采集权限的申请比较严格,申请成功后对于数据的采集也有限制。因此,本文采用网络爬虫的方式,利用社交账户模拟登录社交平台,访问社交平台的网页信息,并在爬虫任务执行完毕后,及时返回任务执行结果。相比于过去的信息匮乏,面对现阶段海量的信息数据,对信息的筛选和过滤成为了衡量一个系统好坏的重要指标。本文运用了爬虫和协同过滤算法对网络社交数据进行收集。 关键词:软件工程;社交网络;爬虫;协同过滤算法

目录 摘要····························- 2 -目录····························- 3 -课题研究的目的·······················- 1 - 1.1课题研究背景·····················- 1 - 2 优先抓取策略--PageRank ·················- 2 -2.1 PageRank简介····················- 2 - 2.2 PageRank流程····················- 2 - 3 爬虫···························- 4 -3.1 爬虫介绍·······················- 4 - 3.1.1爬虫简介······················- 4 - 3.1.2 工作流程·····················- 4 - 3.1.3 抓取策略介绍···················- 5 -3.2 工具介绍·······················- 6 - 3.2.1 Eclipse ······················- 7 - 3.2.2 Python语言····················- 7 - 3.2.3 BeautifulSoup ··················- 7 -3.3 实现·························- 8 -3.4 运行结果·······················- 9 -

网络爬虫开题报告doc

网络爬虫开题报告 篇一:毕设开题报告及开题报告分析 开题报告如何写 注意点 1.一、对指导教师下达的课题任务的学习与理解 这部分主要是阐述做本课题的重要意义 2.二、阅读文献资料进行调研的综述 这部分就是对课题相关的研究的综述落脚于本课题解决了那些关键问题 3.三、根据任务书的任务及文件调研结果,初步拟定执行实施的方案(含具体进度计划) 这部分重点写具体实现的技术路线方案的具体实施方法和步骤了,具体进度计划只是附在后面的东西不是重点南京邮电大学通达学院毕业设计(论文)开题报告文献[5] 基于信息数据分析的微博研究综述[J];研究微博信息数据的分析,在这类研究中,大多数以微博消息传播的三大构件---微博消息、用户、用户关系为研究对象。以微博消息传播和微博成员组织为主要研究内容,目的在于发祥微博中用户、消息传博、热点话题、用户关系网络等的规律。基于微博信息数据分析的研究近年来在国内外都取得了很多成果,掌握了微博中的大量特征。该文献从微博消息传播三大构件的角度,对当前基于信息数据分析的微博研究

进行系统梳理,提出微博信息传播三大构件的概念,归纳了此类研究的主要研究内容及方法。 对于大多用户提出的与主题或领域相关的查询需求,传统的通用搜索引擎往往不能提供令人满意的结果网页。为了克服通用搜索引擎的以上不足,提出了面向主题的聚焦爬虫的研究。文献[6]综述了聚焦爬虫技术的研究。其中介绍并分析了聚焦爬虫中的关键技术:抓取目标定义与描述,网页分析算法和网页分析策略,并根据网络拓扑、网页数据内容、用户行为等方面将各种网页分析算法做了分类和比较。聚焦爬虫能够克服通用爬虫的不足之处。 文献[7]首先介绍了网络爬虫工作原理,传统网络爬虫的实现过程,并对网络爬虫中使用的关键技术进行了研究,包括网页搜索策略、URL去重算法、网页分析技术、更新策略等。然后针对微博的特点和Ajax技术的实现方法,指出传统网络爬虫的不足,以及信息抓取的技术难点,深入分析了现有的基于Ajax的网络爬虫的最新技术——通过模拟浏览器行为,触发JavaScript事件(如click, onmouseover等),解析JavaScript脚本,动态更新网页DOM树,抽取网页中的有效信息。最后,详细论述了面向SNS网络爬虫系统的设计方案,整(转载自:https://www.360docs.net/doc/ef2610580.html, 小草范文网:网络爬虫开题报告)体构架,以及各功能模块的具体实现。面向微博的网络爬虫系统的实现是以新浪微博作为抓取的

网络爬虫技术探究 毕业设计

JIU JIANG UNIVERSITY 毕业论文 题目网络爬虫技术探究 英文题目Web Spiders Technology Explore 院系信息科学与技术学院 专业计算机科学与技术 姓名闻泽 班级学号A081129 指导教师邱兴兴 二○一二年五月

信息科学与技术学院学士学位论文 摘要 网络爬虫是一种自动搜集互联网信息的程序。通过网络爬虫不仅能够为搜索引擎采集网络信息,而且可以作为定向信息采集器,定向采集某些网站下的特定信息,如招聘信息,租房信息,以及网络营销常要的邮箱地址信息等。 本文通过JA V A实现了一个基于广度优先算法的爬虫程序。本论文阐述了网络爬虫实现中一些主要问题:为何使用广度优先的爬行策略,以及如何实现广度优先爬行;系统实现过程中的数据存储;网页信息解析等。 通过实现这一爬虫程序,可以搜集某一站点的所有URLs,并通过得到的URLs 采集到页面的内容,在从内容中提取到需要的内容,如邮箱地址以及页面标题等。再将得到的URLs等采集到的数据存到数据库,以便检索。本文从搜索引擎的应用出发,探讨了网络爬虫在搜索引擎中的作用和地位,提出了网络爬虫的功能和设计要求。在对网络爬虫系统结构和工作原理所作分析的基础上,研究了页面爬取、解析等策略和算法,并使用Java实现了一个网络爬虫的程序,对其运行结果做了分析。 关键词:网络爬虫,广度优先,搜索引擎

信息科学与技术学院学士学位论文 Abstract The Web Spider is an automated program collects information on the Internet. The Web Spider can not only search engine to collect network information and can be used as directional information collection, directed acquisition of some site specific information, such as recruitment information, rental information, as well as network marketing often have to e-mail address information. JA V A Implementation of an algorithm based on breadth first Spider program. This paper described the data stored in the Web Spider to achieve some of the major questions: Why use a breadth-first crawling strategy, as well as how to implement the breadth-first crawling; system implementation process; web page information to resolve. Through the realization of this Spider can collect all of a site's URLs, URLs collected by and get to the page content, to extract from the content, the content, such as email address and page title. And then get the Urls collected was data saved to the database to retrieve. In this paper, the application of the search engine to explore the role and status of a Web Spider search engine, web Spider functionality and design requirements. Web Spider system structure and working principle of the analysis based on study strategies and algorithms of the page crawling, parsing, etc. and use the Java implementation of a Web Spider program, its operating results analysis. Keywords:Spider, Breadth First Search, Search Engine

社交网络信息采集技术研究与实现

社交网络信息采集技术研究与实现 【摘要】社交网站作为网络舆情的有效载体,在传播舆情方面有着重要作用。近年迅猛发展起来的微博就是一种典型的社交网站。本文针对微博类网站设计了支持Ajax(Asynchronous JavaScript and XML)技术的网络爬虫,采用协议驱动和事件驱动结合的采集策略,将爬取分为用户爬取和内容爬取两部分,使用基于模板的抽取方法,实现了对微博数据的成功抽取和存储。抽样结果证明,支持Ajax技术的网络爬虫,较BFS爬虫相比,提高了信息采集的效率和覆盖率。随着DOM Tree复杂度的提高,还有待于设计更高灵活性的网络爬虫。 【关键词】网络爬虫;社交网络;web信息抽取;AJAX 1.引言 随着信息技术的发展,各种新闻、论坛和博客网站为人们提供了发表评论的平台,对相关部门掌握舆情的走向起着重要作用,使得舆情研究变得有价值。由于Ajax技术的广泛使用,用于信息搜索的常规网络爬虫技术面临严重挑战,出现了针对Ajax技术的爬虫。2007年,瑞士苏黎世联邦理工学院的Gianni Frey[1,2]通过解析网页中的脚本,实现了Ajax动态信息的采集;随后Cristian[3]等人提出了基于脚本函数以及参数的热点检测机制,减少了重复信息的采集;2008年,荷兰理工大学的Ali[4]等人利用浏览器接口模拟用户对页面元素操作获取动态信息。在我国,2007年浙江大学的罗兵[5]在普通爬虫的基础上增加了JS(JavaScript)解析和DOM(Document Object Model)操作模块,实现了对JavaScript代码的解析和JavaScript代码中相关DOM操作的支持,完成了对Ajax 加载内容的分析;2009年,中国科学技术大学的曾伟辉[6]采用改进动态脚本分析方法,实现了基于对象的程序切片算法达到抓取Ajax站点URL的目的;同年,袁小节[7]以采集新闻主题信息为例,采用基于协议驱动采集和事件驱动采集相结合的方法完成了聚焦信息的采集。2010年,夏天[8]对Ajax站点数据采集进行了总结,分析了采集Ajax网页动态信息的研究重点以及发展趋势。本文在分析研究了现有爬虫技术后,针对微博类网站设计了支持Ajax技术的爬虫,该爬虫将爬取分为用户爬取和内容爬取两部分,采用协议驱动和事件驱动结合的采集策略以及基于模板的抽取方法,实现了对微博内容的抽取和保存,提高了信息采集的覆盖率。 2.面向微博的Web爬虫设计与实现 微博在网络事件中对舆论的导向起到重要作用[9]。网络舆情具有源数据针对性、时效性、后续更新连续性等特点。本文设计时,将要爬取的空间限制在微博网站中,考虑微博发布的时间、内容、评论和转发数等,以最大限度的信息采集量为目标进行设计,保证获取新增评论内容。 2.1 面向微博的网络爬虫框架

网络爬虫技术的概述与研究

网络爬虫技术的概述与研究 摘要 网络爬虫,又被称为网页蜘蛛,网络机器人,随着网络的迅速发展,万维网成为大量信息的载体,如何有效地提取并利用这些信息成为一个巨大的挑战。搜索引擎 (Search Engine),例如传统的通用搜索引擎AltaVista,Yahoo!和Google 等,作为一个辅助人们检索信息的工具成为用户访问web的入口和指南。但是,这些通用性搜索引擎也存在着一定的局限性。为了解决上述问题,定向抓取相关网页资源的聚焦爬虫应运而生。聚焦爬虫是一个自动下载网页的程序,它根据既定的抓取目标,有选择的访问万维网上的网页与相关的链接,获取所需要的信息。本文将对网络爬虫技术及其原理进行简单的介绍,并且给出实例。 关键词 网络爬虫聚焦爬虫网页抓取搜索策略 URL

一、网络爬虫的简介 1、URL 在介绍网络爬虫之前,先引入URL的相关知识。URL是URI的一个子集。它是Uniform Resource Locator的缩写,译为“统一资源定位符”。通俗地说,URL 是Internet上描述信息资源的字符串,主要用在各种WWW客户程序和服务器程序上,特别是著名的Mosaic。采用URL可以用一种统一的格式来描述各种信息资源,包括文件、服务器的地址和目录等。URL的格式由三部分组成: ·第一部分是协议(或称为服务方式)。 ·第二部分是存有该资源的主机IP地址(有时也包括端口号)。 ·第三部分是主机资源的具体地址,如目录和文件名等。 第一部分和第二部分用“://”符号隔开,第二部分和第三部分用“/”符号隔开。第一部分和第二部分是不可缺少的,第三部分有时可以省略。 用URL表示文件时,服务器方式用file表示,后面要有主机IP地址、文件的存取路径(即目录)和文件名等信息。有时可以省略目录和文件名,但“/”符号不能省略。例如file://https://www.360docs.net/doc/ef2610580.html,/pub/files/foobar.txt 爬虫最主要的处理对象就是URL,它根据URL地址取得所需要的文件内容,然后对它进行进一步的处理。 2、传统爬虫与聚焦爬虫 网络爬虫是一个自动提取网页的程序,它为搜索引擎从web上下载网页,是搜索引擎的重要组成。 传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。搜索引擎是基于传统爬虫技术建立的,但其存在着一定的局限性,例如:(1) 不同领域、不同背景的用户往往具有不同的检索目的和需求,通用搜索引擎所返回的结果包含大量用户不关心的网页。 (2)通用搜索引擎的目标是尽可能大的网络覆盖率,有限的搜索引擎服务器资源与无限的网络数据资源之间的矛盾将进一步加深。 (3)万维网数据形式的丰富和网络技术的不断发展,图片、数据库、音频、视频多媒体等不同数据大量出现,通用搜索引擎往往对这些信息含量密集且具有一定结构的数据无能为力,不能很好地发现和获取。 (4)通用搜索引擎大多提供基于关键字的检索,难以支持根据语义信息提出的查询。 为了解决以上问题,定向抓取网页的聚焦爬虫应运而生。 聚焦爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取URL的队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL,并重复上述过程,直到达到系统的某一条件时停止。 二、网络爬虫的工作原理 在网络爬虫的系统框架中,主过程由控制器,解析器,资源库三部分组成。控制器的主要工作是负责给多线程中的各个爬虫线程分配工作任务。解析器的主要

移动通信网络数据采集方法分析

移动通信网络数据采集方法分析 摘要:移动互联网是移动通信与互联网两个概念结合的产物。目前移动通信运 营商3G、4G技术的发展以及Wifi覆盖范围的扩大也使得网速越来越快,用户体 服务需求体验越来越迫切;想用户之所想,急用户之所急的商业竞争地位思维是 需要大量用户数据支撑并分析的前提。因此对用户数据合理采集并不断发掘分析,才能满足移动互联网用户日益增长的智能化需求。 关键词:移动通信;WAP网关;用户数据 一、概述 目前移动通信网络飞速发展,GSM、TD-SCDMA、CDMA2000以及WCDMA各 制式无线网络基础设施升级换代频繁、核心网3G无线网络与核心网络与2G网络 互相兼容兼容性,各地运营商根据实际需求考虑使用4G、3G与2G三大独立的 无线、接入、核心网络并存的局面。在全网同步引入HSDPA和HSUPA技术的同时,对2G核心网中对原有GPRS/EDGE网络升级改造。 利用2G网络频率范围在890-960MHz的穿透性强的优势,不仅减轻3G、4G 基站的运维负担,还可以弥补4G网络的覆盖盲区。所以在移动通信用户数据采 集时不能不考虑现存2G网络的丰富数据参考价值。 随着ISO和安卓系统的智能手机的大众化,曾经的GPRS技术里数据经过WAP网关的处理逐渐弱化,用户终端可接入移动网络经过GGSN网关连接互联网 并访问其内容,2G网络GPRS数据业务和EDGE技术与WAP网关相连。2G时代,WAP无线协议互联网无直接访问功能,所以添加WAP网关是用户上网。智能手 机之前的Symbian系统处理能力不及PC主机,无论是网速还是现实视频、音频、互动性媒体、发布主题等等都与宽带互联网甚至光纤入户的PC家用主机电脑无 法匹敌,在2.5G时代,GSM通信系统中的配套设备模块中的WAP网关只能根据MS手机终端的应别能力进行通信网与互联网的交。 二、移动通信网络数据 移动互联网在2G/3G时代,核心网是两个独立的域,控制语音相关的叫电路 域(CS域:Circuit Switch),控制数据业务相关的叫分组域(PS域:Packet Switch)。相应的,与语音相关的控制都放在了电路域,比如上面的语音呼叫建立、返回振铃、判断并执行呼叫转移,业务短信等等。与数据相关的控制则放在 了分组域,比如上面的与因特网服务器(通信网与因特网是两张网)建立数据连接、区分当前流量是微信还是微博等等。自2G时代以来WAP网关是承载移动数 据业务的网元。 2.1 用户数据 移动通信的空间自由度与互联网的内容形式丰富结合处移动互联网的新品种。目前移动通信运营商3G、4G技术的发展以及Wifi覆盖范围的扩大也使得网速越 来越快,用户体服务需求验越来越迫切;用户数据分为两种:一种是用户注册信 息将自己的身份识别与手机号码相关联,在信息层面上存入数据库,咋数据层面 上存入HLR中为通信系统的呼叫、寻址、和计费分配信道等工作提供服务;另一 种是指通过无线基站近乎于log日志的形式,使用户主观意愿被动或不知情的前 提下在系统存储设备上记录用户位置更新,小区切换,小区重选等为用户提供的 移动通信服务功能。这类数据的产生不由用户的主观意愿为选择,是为了完成一

网络爬虫技术的概述与研究

网络爬虫技术的概述与 研究 Company number:【WTUT-WT88Y-W8BBGB-BWYTT-19998】

网络爬虫技术的概述与研究 摘要 网络爬虫,又被称为网页蜘蛛,网络机器人,随着网络的迅速发展,万维网成为大量信息的载体,如何有效地提取并利用这些信息成为一个巨大的挑战。搜索引擎 (Search Engine),例如传统的通用搜索引擎AltaVista,Yahoo!和Google等,作为一个辅助人们检索信息的工具成为用户访问web的入口和指南。但是,这些通用性搜索引擎也存在着一定的局限性。为了解决上述问题,定向抓取相关网页资源的聚焦爬虫应运而生。聚焦爬虫是一个自动下载网页的程序,它根据既定的抓取目标,有选择的访问万维网上的网页与相关的链接,获取所需要的信息。本文将对网络爬虫技术及其原理进行简单的介绍,并且给出实例。 关键词 网络爬虫聚焦爬虫网页抓取搜索策略 URL 一、网络爬虫的简介 1、URL 在介绍网络爬虫之前,先引入URL的相关知识。URL是URI的一个子集。它是Uniform Resource Locator的缩写,译为“统一资源定位符”。通俗地说,URL是Internet上描述信息资源的字符串,主要用在各种WWW客户程序和服务器程序上,特别是着名的Mosaic。采用URL可以用一种统一的格式来描述各种信息资源,包括文件、服务器的地址和目录等。URL的格式由三部分组成:·第一部分是协议(或称为服务方式)。 ·第二部分是存有该资源的主机IP地址(有时也包括端口号)。

·第三部分是主机资源的具体地址,如目录和文件名等。 第一部分和第二部分用“://”符号隔开,第二部分和第三部分用“/”符号隔开。第一部分和第二部分是不可缺少的,第三部分有时可以省略。 用URL表示文件时,服务器方式用file表示,后面要有主机IP地址、文件的存取路径(即目录)和文件名等信息。有时可以省略目录和文件名,但“/”符号不能省略。例如 爬虫最主要的处理对象就是URL,它根据URL地址取得所需要的文件内容,然后对它进行进一步的处理。 2、传统爬虫与聚焦爬虫 网络爬虫是一个自动提取网页的程序,它为搜索引擎从web上下载网页,是搜索引擎的重要组成。 传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。搜索引擎是基于传统爬虫技术建立的,但其存在着一定的局限性,例如:(1) 不同领域、不同背景的用户往往具有不同的检索目的和需求,通用搜索引擎所返回的结果包含大量用户不关心的网页。 (2)通用搜索引擎的目标是尽可能大的网络覆盖率,有限的搜索引擎服务器资源与无限的网络数据资源之间的矛盾将进一步加深。 (3)万维网数据形式的丰富和网络技术的不断发展,图片、数据库、音频、视频多媒体等不同数据大量出现,通用搜索引擎往往对这些信息含量密集且具有一定结构的数据无能为力,不能很好地发现和获取。

网络爬虫技术论文

网络爬虫技术浅析 在当今社会,越来越多的人使用互联网看视频,听音乐,查资料等等,使得网络上的数据越来越多。人们想从海量的数据中获取到自己想要的知识,靠人力浏览很难实现查找到需要的东西,除非运气相当好。这个时候搜索引擎就出现了,搜索引擎可以通过关键字,查找网页并显示在用户面前,用户可以得到有用的信息。在搜索引擎中非常关键的数据来源来自一种很神奇的技术:网络爬虫技术,它构成了搜索引擎的基础部分。 网络爬虫的基本概念 网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是引擎的重要组成。传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。 网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动的抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁,自动索引,模拟程序或者蠕虫。 一、网络爬虫的历史 1994年的1月份,第一个既可搜索又可浏览的分类目录EINetGalaxy上线了。它之后才出现了雅虎,直至我们现在熟知的Google、百度。但是他们都不是第一个吃搜索引擎这个螃蟹的人。从搜索FTP上的文件开始,搜索引擎的原型就出现了,那时还未有万维网,当时人们先用手工后用蜘蛛程序搜索网页,但随着互联网的不断壮大,怎样能够搜集到的网页数量更多、时间更短成为了当时的难点和重点,成为人们研究的重点。 1994年7月20日发布的Lycos网站第一个将“蜘蛛”程序接入到其索引程序中。引入“蜘蛛”后给其带来的最大优势就在于其远胜于其它搜索引擎的数据量。自此之后几乎所有占据主导地位的搜索引擎中,都靠“蜘蛛”来搜集网页信息。 通用网络爬虫和聚焦网络爬虫的工作原理 网络爬虫是搜索引擎的重要组成部分,它是一个自动提取网页的程序,为搜索引擎从网上下载网页. 传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。与传统爬虫相比,聚焦爬虫的工作流程则较为复杂,需要根据一定

无线传感器网络数据采集关键技术及研究进展

第32卷第1期吉首大学学报(自然科学版) Vol.32No .12011年1月Journ al of Ji shou Universit y (Nat ural Science Edit ion)J an.2011 文章编号:1007-2985(2011)01-0056-07 无线传感器网络数据采集关键技术及研究进展 * 梁平原 1,2,陈炳权1,3,谭子尤1(1.吉首大学物理科学与信息工程学院,湖南吉首416000;2.中山大学信息科学与技术学院,广东广州 510006;3.湖南大学电气与信息工程学院,湖南长沙410082)摘要:无线传感器网络(WSN)数据采集因自组织网络结构而具有其他网络无可比拟的优势,然而其资源有限的特点使得许多关键问题尚未有好的解决策略.总结了WSN 数据采集中的关键技术及所面临的主要挑战,介绍了数据采集中WSN 网络协议的主要性能指标及其研究方法,并就当前几种新技术与WSN 的结合情况进行了分析和讨论,最后对无线传感器网络数据采集关键技术的未来研究进行了展望. 关键词:无线传感网络;综述;数据采集;MIMO 中图分类号:T N92文献标志码:A 随着无线通信、集成电路、传感器、微机电系统等技术的飞速发展,低成本、低功耗、小体积、多功能的微型传感器的大量生产成为可能.之所以称为微型传感器,是因为传感器小到可以像灰尘一样在空气中浮动,所以又称之为智能尘埃(Smar t Dust)[1].传感器节点借助于内置的微型传感器,可以感测环境中的热、红外、声纳、雷达与地震波信号等,同时也能采集温度、湿度、光强度、压力、土壤成分、移动物体大小、速度和方向等人们感兴趣的物理量.无线传感网络(Wireless Sensor Net wor k,简称WSN)是集分布式信息采集、信息传输和信息处理技术于一体的网络信息系统[2].传感器节点常常被随机地布置在许多人类无法接近的场合,通过自组织的方式来构成一个快速、有效可靠的无线网络.传感器节点往往是同构的,并且由于其低能耗(甚至不需要换电池)的特点,它适用于无人看守的各种应用场景.IEEE1451.5无线标准为WSN 提供了各种基于协议和需求的无线应用标准[3].WSN 在信息的采集、传输与处理的过程中,其根本目的是要将感知节点采集到的数据以无线传输的方式用单跳或多跳的方式发送到汇聚点(Sink)或基站(BS).而其数据的处理过程可以是内网的,也可以外网的[4],也就是说,数据可以在单跳或多跳发送之前进行内网的数据处理或压缩以节省更多的能量,还能在多跳过程中进一步地进行数据融合,以最大可能的方式来减少数据冗余.另外,也可以把传输的数据放到BS 来进一步进行处理,比如恢复原始图像的形状、大小或色彩等. 与目前常见的无线通信网络如移动通信网、无线局域网、蓝牙网络、Ad hoc 网络等比较而言,利用WSN 进行数据采集的主要特点[2,4]:(1)传感器节点数量很大,分布密集,网络规模很大.为了在某个地理区域进行监测,通常有成千上万个节点被布署在该区域.且布署的节点具有同构性,常常采用非人工的方式来布署.如果单个节点或者局部几个节点出现故障是不会导致网络瘫痪的,WSN 利用节点之间的高度连接性可以保证系统的容错性和抗毁性.(2)在数据采集过程中,节点处理数据的能力非常受限.由于受价格、体积和功耗的限制,WSN 中的传感器节点一般采用嵌入式处理器和存储器.节点具有计算能力,可以完成一些数据的处理工作.但是,由于嵌入式处理器的能力和存储器的容量有限,因此传感器的处理能力也相对受限,所以在设计WSN 的各种协议时要力求简单有效.(3)能量节省至关重要.由于受到硬件条件的限制,传感器节点通常采用电池供电,且通常是不需更换电池的.对于要进行长时间数据采集的WSN,能量是决定整个网络寿命的关键.(4)以数据为中心.在WSN 中,人们常常只关心某个区域内某个观测指标的数值,而不会去关心单个节点的观测数据.由于传感器节点布署密集,相邻节点之间采集到的数据具有严重的相关性,这样决定了各节点采集的数据中有大量的冗余信息,这要 *收稿日期:2010-06-11 基金项目国家自然科学基金资助项目(6636);湖南省教育厅科学研究项目(56) 作者简介梁平原(),男,湖南涟源人,吉首大学物理科学与信息工程学院高级实验师,中山大学信息科学与技术学院博士生,主要从事无线传感器网络、MIMO 、随机多址竞争和光通信等研究:070807C 2:1972-.

相关文档
最新文档