网络爬虫的设计
python网络爬虫课课程设计

python网络爬虫课课程设计一、教学目标本课程的学习目标包括以下三个方面:1.知识目标:学生需要掌握Python网络爬虫的基本概念、原理和常用库,如requests、BeautifulSoup等。
了解网络爬虫的分类、爬取策略和工作原理,以及与之相关的数据解析、持久化存储等知识。
2.技能目标:学生能够运用Python网络爬虫编写简单的爬虫程序,实现对网页数据的抓取、解析和分析。
具备解决实际网络爬虫问题的能力,如处理登录认证、模拟浏览器行为、反爬虫策略等。
3.情感态度价值观目标:培养学生对网络爬虫技术的兴趣和热情,使其认识到网络爬虫在信息获取、数据分析和网络监测等方面的应用价值。
同时,引导学生树立正确的网络安全意识,遵循道德规范,不滥用网络爬虫技术。
二、教学内容本课程的教学内容主要包括以下几个部分:1.Python网络爬虫基本概念和原理:介绍网络爬虫的定义、分类、爬取策略和工作原理。
2.常用Python网络爬虫库:讲解requests、BeautifulSoup、lxml等库的使用方法,以及如何选择合适的库进行数据抓取和解析。
3.数据解析和处理:学习如何提取网页中的文本数据、图像数据、音频数据等,并进行预处理和清洗。
4.持久化存储:了解如何将抓取的数据存储到文件、数据库等介质中,以便后续分析和使用。
5.实战项目:通过实际案例,让学生学会运用Python网络爬虫解决实际问题,如爬取某的资讯、监测网络舆情等。
6.反爬虫策略与应对:讲解反爬虫技术的原理和常见形式,如验证码、动态加密等,以及如何应对反爬虫策略。
三、教学方法本课程采用以下几种教学方法:1.讲授法:讲解Python网络爬虫的基本概念、原理和常用库。
2.案例分析法:通过分析实际案例,让学生学会运用Python网络爬虫解决实际问题。
3.实验法:让学生动手编写爬虫程序,进行数据抓取和分析,提高实际操作能力。
4.讨论法:学生分组讨论,分享学习心得和解决问题的方法,培养团队合作精神。
关于爬虫的毕业设计课题

关于爬虫的毕业设计课题摘要:本课题旨在使用爬虫技术设计和开发一个用于爬取互联网数据的应用程序。
通过爬取各种网站和在线信息源,该应用程序可以提供包括新闻、论坛帖子、商品信息等多个领域的数据收集服务。
该应用程序的设计将以Python编程语言为基础,并利用多个开源库和框架,如BeautifulSoup、Scrapy等,来实现数据的采集、处理和存储。
关键词:爬虫技术,互联网数据,应用程序,Python,BeautifulSoup,Scrapy1. 研究背景随着互联网的飞速发展,网络上的信息数量呈现爆炸性增长。
如何高效地获取和处理这些信息成为了一个重要的问题。
而爬虫技术作为一种自动化数据采集方法,凭借其高效、灵活的特性,得到了广泛的应用。
2. 目标与意义本课题的目标是设计和开发一个可用于爬取互联网数据的应用程序。
通过该应用程序,用户可以方便地获取各种网站和在线信息源中的数据。
此外,通过该应用程序,还可以实现对数据的清洗、整合和存储,从而提供给用户更加方便和实用的数据服务。
3. 设计方案本课题的设计方案基于Python编程语言,利用其丰富的开源库和框架来实现爬虫功能。
具体来说,将采用BeautifulSoup库来解析HTML页面,获取数据的关键信息。
同时,使用Scrapy框架来组织和管理整个爬虫过程,并实现对多个网站的同时爬取。
4. 实施步骤(1)确定需要爬取的目标网站和在线信息源;(2)使用BeautifulSoup解析HTML页面,提取有用的数据;(3)使用Scrapy框架设计和实现爬虫程序;(4)通过爬虫程序获取并存储数据;(5)对爬取的数据进行清洗、整合和存储。
5. 预期成果本课题预期实现一个功能完善的爬虫应用程序,该程序具备以下特点:(1)能够方便地定义和配置爬取目标;(2)能够高效地爬取各种网站和在线信息源的数据;(3)能够自动处理爬取的数据,包括清洗、整合和存储。
6. 创新点本课题的创新点主要体现在以下几个方面:(1)结合使用BeautifulSoup和Scrapy,实现对HTML页面的解析和爬取目标的高度灵活性;(2)通过对爬取的数据进行清洗和整合,提供给用户更加方便和实用的数据服务。
网络爬虫课程设计文档

网络爬虫网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。
传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。
简单来说,网络爬虫的基本工作流程可以分为如下几步:1.首先选取一部分精心挑选的种子URL;2.将这些URL放入待抓取URL队列;3.从待抓取URL队列中取出待抓取URL,解析DNS,并且得到主机的ip,并将URL对应的网页下载下来,存储进已下载网页库中。
此外,将这些URL放进已抓取URL队列。
4.分析已抓取URL队列中的URL,并且将URL放入待抓取URL队列,从而进入下一个循环。
对URL的认识爬虫最主要的处理对象就是URL,它根据URL地址取得所需要的文件内容,然后对它进行进一步的处理。
因此,准确地理解URL对理解网络爬虫至关重要。
URL:统一资源定位符,是Internet 上描述信息资源的字符串。
URL可以用一种统一的格式来描述各种信息资源,包括文件、服务器的地址和目录等。
URL 的格式由三部分组成:第一部分是协议(或称为服务方式)。
第二部分是存有该资源的主机IP地址(有时也包括端口号)。
第三部分是主机资源的具体地址,如目录和文件名等。
第一部分和第二部分用“://”符号隔开,第二部分和第三部分用“/”符号隔开。
第一部分和第二部分是不可缺少的,第三部分有时可以省略。
1.HTTP 协议的URL 示例使用超级文本传输协议HTTP,提供超级文本信息服务的资源。
例:/channel/welcome.htm。
其计算机域名为。
超级文本文件(文件类型为.html)是在目录/channel 下的welcome.htm。
这是中国人民日报的一台计算机。
例:/talk/talk1.htm。
其计算机域名为。
超级文本文件(文件类型为.html)是在目录/talk 下的talk1.htm。
(精品)网络爬虫的设计与实现毕业论文

摘要网络爬虫是一种自动搜集互联网信息的程序。
通过网络爬虫不仅能够为搜索引擎采集网络信息,而且可以作为定向信息采集器,定向采集某些网站下的特定信息,如招聘信息,租房信息等。
本文通过JAVA实现了一个基于广度优先算法的多线程爬虫程序。
本论文阐述了网络爬虫实现中一些主要问题:为何使用广度优先的爬行策略,以及如何实现广度优先爬行;为何要使用多线程,以及如何实现多线程;系统实现过程中的数据存储;网页信息解析等。
通过实现这一爬虫程序,可以搜集某一站点的URLs,并将搜集到的URLs 存入数据库。
【关键字】网络爬虫;JAVA;广度优先;多线程。
ABSTRACTSPIDER is a program which can auto collect informations from internet. SPIDER can collect data for search engines, also can be a Directional information collector, collects specifically informations from some web sites, such as HR informations, this paper, use JAVA implements a breadth-first algorithm multi-thread SPDIER. This paper expatiates some major problems of SPIDER: why to use breadth-first crawling strategy, and collect URLs from one web site, and store URLs into database.【KEY WORD】SPIDER; JA V A; Breadth First Search; multi-threads.目录第一章引言 (1)第二章相关技术介绍 (2)2.1JAVA线程 (2)2.1.1 线程概述 (2)2.1.2 JAVA线程模型 (2)2.1.3 创建线程 (3)2.1.4 JAVA中的线程的生命周期 (4)2.1.5 JAVA线程的结束方式 (4)2.1.6 多线程同步 (5)2.2URL消重 (5)2.2.1 URL消重的意义 (5)2.2.2 网络爬虫URL去重储存库设计 (5)2.2.3 LRU算法实现URL消重 (7)2.3URL类访问网络 (8)2.4爬行策略浅析 (8)2.4.1宽度或深度优先搜索策略 (8)2.4.2 聚焦搜索策略 (9)2.4.3基于内容评价的搜索策略 (9)2.4.4 基于链接结构评价的搜索策略 (10)2.4.5 基于巩固学习的聚焦搜索 (11)2.4.6 基于语境图的聚焦搜索 (11)第三章系统需求分析及模块设计 (13)3.1系统需求分析 (13)3.2SPIDER体系结构 (13)3.3各主要功能模块(类)设计 (14)3.4SPIDER工作过程 (14)第四章系统分析与设计 (16)4.1SPIDER构造分析 (16)4.2爬行策略分析 (17)4.3URL抽取,解析和保存 (18)4.3.1 URL抽取 (18)4.3.2 URL解析 (19)4.3.3 URL保存 (19)第五章系统实现 (21)5.1实现工具 (21)5.2爬虫工作 (21)5.3URL解析 (22)5.4URL队列管理 (24)5.4.1 URL消重处理 (24)5.4.2 URL等待队列维护 (26)5.4.3 数据库设计 (27)第六章系统测试 (29)第七章结论 (32)参考文献 (33)致谢 (34)外文资料原文 (35)译文 (51)第一章引言随着互联网的飞速发展,网络上的信息呈爆炸式增长。
网络爬虫毕业设计

网络爬虫毕业设计网络爬虫毕业设计随着互联网的迅猛发展,信息的获取变得越来越方便。
而在这个信息爆炸的时代,网络爬虫作为一种高效的信息获取工具,受到了广泛的关注和应用。
作为一名计算机专业的毕业生,我选择了网络爬虫作为我的毕业设计主题。
首先,我将介绍网络爬虫的基本原理和工作方式。
网络爬虫是一种自动化程序,通过模拟人类的浏览行为,从互联网上抓取各种信息。
它可以访问网页,提取文本、图片、链接等信息,并将其保存到本地数据库或文件中。
网络爬虫通常使用HTTP协议来进行网页的请求和响应,通过解析HTML文档来提取所需的信息。
接下来,我将介绍网络爬虫的应用领域。
网络爬虫广泛应用于搜索引擎、数据挖掘、舆情监测、价格比较、信息聚合等领域。
例如,搜索引擎利用网络爬虫来抓取互联网上的网页,并建立索引,以便用户能够快速找到所需的信息。
数据挖掘领域可以利用网络爬虫来收集大量的数据,进行分析和挖掘。
舆情监测可以通过网络爬虫来抓取新闻、社交媒体等信息,实时监测和分析舆情动态。
价格比较网站可以利用网络爬虫来抓取各个电商网站的商品信息,并进行价格比较和推荐。
信息聚合网站可以通过网络爬虫来抓取各个新闻网站的新闻,并将其汇总在一个平台上,方便用户阅读。
在设计我的网络爬虫毕业项目时,我将考虑以下几个方面。
首先,我需要确定我的项目的目标和需求。
是要抓取特定网站的信息,还是要抓取特定领域的信息?其次,我需要选择合适的编程语言和开发框架。
Python是目前最常用的网络爬虫编程语言,而Scrapy是一个强大的网络爬虫框架,可以帮助我快速开发和部署我的项目。
然后,我需要设计合适的数据存储方案。
可以选择使用关系型数据库,如MySQL或SQLite,也可以选择使用非关系型数据库,如MongoDB。
最后,我需要考虑如何处理反爬虫机制。
很多网站为了防止被爬虫抓取,会采取一些反爬虫措施,如验证码、IP封锁等。
我需要设计相应的策略来应对这些反爬虫机制。
在实施我的网络爬虫毕业项目时,我将遵循一定的原则和规范。
爬虫爬取课程设计

爬虫爬取课程设计一、课程目标知识目标:1. 学生能理解爬虫的基本概念、工作原理及应用场景。
2. 学生能掌握至少一种编程语言(如Python)的基本语法,并运用其编写简单的爬虫程序。
3. 学生能了解网络数据抓取的基本方法,如HTTP请求、HTML解析等。
4. 学生了解数据存储与处理的基本方法,如文件存储、数据库操作等。
技能目标:1. 学生能独立完成简单的网络数据抓取任务,具备实际操作能力。
2. 学生能运用所学知识解决实际问题,具备一定的编程思维和分析解决问题的能力。
3. 学生能在团队中协作完成复杂的数据抓取项目,具备良好的沟通与协作能力。
情感态度价值观目标:1. 学生对爬虫技术产生兴趣,提高对计算机编程和数据科学的热情。
2. 学生能认识到网络数据抓取在现实生活中的应用价值,培养学以致用的意识。
3. 学生在学习和实践过程中,培养良好的道德素养,遵循法律法规,尊重数据版权。
本课程针对高年级学生,结合爬虫技术在实际应用中的需求,以提高学生的实际操作能力和编程思维为核心。
课程性质为实践性、应用性较强的课程,要求学生在掌握基本理论知识的基础上,注重实践操作,培养解决实际问题的能力。
通过本课程的学习,学生将能够具备一定的网络数据抓取和处理能力,为后续相关课程打下坚实基础。
二、教学内容1. 爬虫基本概念与原理- 爬虫的定义与作用- 爬虫的工作流程- 常见爬虫类型及特点2. 编程语言基础- Python语言简介与安装- Python基本语法- Python常用库与函数3. 网络数据抓取- HTTP协议基础- 网络请求库的使用(如requests)- HTML解析库的使用(如BeautifulSoup)4. 数据存储与处理- 文件存储(如CSV、JSON)- 数据库操作(如SQLite)- 数据清洗与处理5. 实践项目与案例分析- 简单爬虫案例实现- 复杂爬虫项目分析与实现- 爬虫实战经验分享6. 爬虫伦理与法律法规- 爬虫与数据版权- 网络爬虫的合规性- 爬虫道德规范本教学内容按照教学大纲,循序渐进地安排,使学生能够系统地掌握爬虫技术。
Python网络爬虫设计与实现-课件详解

数据可视化
学习使用Python的数据可视化工 具创建图表和可视化呈现数据。
Pandas库应用
了解如何使用Pandas库对爬虫数 据进行处理和分析。
爬取动态网页的方法与技巧
1 动态网页基础
了解动态网页的基本原理和技术。
2 模拟浏览器行为
学习使用Selenium模拟浏览器行为来解 析动态网页。
3 AJAX抓包
学习如何使用解析库解析和提取XML页 面的数据。
3 JSON解析
介绍如何使用解析库解析和提取JSON数据。如何提高爬虫效率与稳定性
1
多线程/多进程
了解并实践使用多线程或多进程提高爬
异步请求
2
虫效率。
介绍异步请求的概念和使用方法以提高
爬虫的效率。
3
错误处理和重试
学习如何处理爬虫中的错误和异常,并 进行自动重试。
学习如何使用爬虫爬取和保存网 页上的图片数据。
视频爬取技巧
了解如何使用爬虫爬取和保存网 页上的视频数据。
图像识别技术
介绍使用图像识别技术自动识别 和下载网页中的图片。
数据提取技术
学习使用XPath和正则表达式提取 网页中的数据。
API集成
了解通过API和Web Services获取 结构化数据的方法。
RSS订阅
介绍如何使用爬虫订阅和提取 RSS源的内容。
网页解析的基本方法及相关技术
1 HTML解析
了解如何使用解析库解析和提取HTML 页面的数据。
2 XML解析
学习URL解析和请求头设置 的基本知识。
常见请求错误
介绍一些常见的网络请求错 误和解决方法。
爬虫的常见反爬策略及应对方法
1
IP封禁
基于python爬虫的毕业设计

基于python爬虫的毕业设计一、背景介绍随着互联网的普及,越来越多的信息被发布在网上,这些信息的数量庞大,种类繁多,对于人们的信息获取需求提出了更高的要求。
因此,网络爬虫技术应运而生,它可以自动化地从互联网上抓取信息,为人们提供便利。
本毕业设计基于Python语言,使用网络爬虫技术,实现对某个网站上的信息进行抓取和分析,从而实现对该网站的数据分析和挖掘。
二、设计目标本毕业设计的主要目标是使用Python爬虫技术,实现对某个网站上的信息进行抓取和分析,具体包括以下几个方面:1. 实现对指定网站的数据抓取,包括网站上的文本、图片、视频等信息。
2. 实现对抓取到的数据进行分析和挖掘,包括数据的统计、可视化等操作。
3. 实现对抓取到的数据进行存储和管理,包括数据的备份、恢复、查询等操作。
三、技术实现1. 网络爬虫技术网络爬虫是一种自动化程序,可以模拟浏览器行为,从网站上抓取数据。
Python 语言具有强大的网络爬虫库,如Requests、BeautifulSoup、Scrapy等,可以方便地实现对网站的数据抓取。
2. 数据分析和挖掘技术Python语言具有丰富的数据分析和挖掘库,如NumPy、Pandas、Matplotlib 等,可以方便地实现对抓取到的数据进行分析和挖掘,例如统计、可视化等操作。
3. 数据库技术本毕业设计需要实现对抓取到的数据进行存储和管理,因此需要使用数据库技术。
Python语言具有多种数据库库,如MySQL、SQLite、MongoDB等,可以方便地实现对数据的存储和管理。
四、实现步骤1. 确定抓取目标首先需要确定要抓取的网站和信息类型,例如新闻、图片、视频等。
2. 编写爬虫程序使用Python语言编写网络爬虫程序,实现对网站上的数据抓取。
可以使用Requests库实现对网站的请求,使用BeautifulSoup库实现对网站的解析,从而获取所需的数据。
3. 数据分析和挖掘使用Python语言的数据分析和挖掘库,对抓取到的数据进行分析和挖掘,例如统计、可视化等操作。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
网络爬虫的设计与实现
王 娟,吴金鹏
(贵州民族学院计算机与信息工程学院,贵州贵阳550025
)摘 要:搜索引擎技术随着互联网的日益壮大而飞速发展。
作为搜索引擎不可或缺的组成部分,网络爬虫的作用显
得尤为重要,它的性能直接决定了在庞大的互联网上进行网页信息采集的质量。
设计并实现了通用爬虫和限定爬虫。
关键词:网络爬虫;通用爬虫;限定爬虫
中图分类号:TP393 文献标识码:A 文章编号:1672-7800(2012)004-0136-
02作者简介:王娟(1983-),女,湖南邵东人,硕士,贵州民族学院讲师,研究方向为数据挖掘、网络安全;吴金鹏(1989-)
,男,山西晋中人,贵州民族学院本科生,研究方向为计算机科学与技术。
0 引言
网络爬虫也称网络蜘蛛,它为搜索引擎从万维网上下载网页,并沿着网页的相关链接在Web中采集资源,
是一个功能很强的网页自动抓取程序,
也是搜索引擎的重要组成部分,爬虫设计的好坏直接决定着整个搜索引擎的性能及扩展能力。
网络爬虫按照系统结构和实现技术,大致可以分为:通用网络爬虫、主题网络爬虫、增量式网络爬虫、深层网络爬虫。
实际应用中通常是将几种爬虫技术相结合。
1 通用爬虫的设计与实现
1.1 工作原理
通用网络爬虫根据预先设定的一个或若干初始种子URL开始,以此获得初始网页上的URL列表,
在爬行过程中不断从URL队列中获一个个的URL,进而访问并下载该页面。
页面下载后页面解析器去掉页面上的HTML标记后得到页面内容,将摘要、URL等信息保存到Web数据库中,同时抽取当前页面上新的URL,保存到URL队列,直到满足系统停止条件。
其原理如图1所示。
1.2 爬行策略
为提高工作效率,通用网络爬虫会采取一定的爬行策略优先爬取重要的网页。
常用的有深度优先和宽度优先策略。
宽度优先算法的设计和实现相对简单,可以覆盖尽可能多的网页,是使用最广泛的一种爬行策略。
一个爬虫如何利用宽度优先遍历来抓取网页呢?在爬虫中,每个链接对应一个HTML页面或者其它文件,通
常将HTML页面上的超链接称为“子节点”。
整个宽度优先爬虫就是从一系列的种子节点开始,把这些网页中的
“子节点”提取出来,放到队列中依次进行抓取。
被访问过的节点放入到另一张表中,
过程如图2所示。
图1 通用爬虫工作流程 图2 宽度优先爬虫过程
1.3 爬虫队列设计
爬虫队列设计是网络爬虫的关键。
因为爬虫队列要
存储大量的URL,所以依靠本地链表或者队列肯定是不够的,应当寻找一个性价比高的数据库来存放URL队列,Berkeley
DB是目前一种比较流行的内存数据库。
根据爬虫的特点,Hash表成为了一种比较好的选择。
但是在使用Hash存储URL字符串的时候常用MD5算法来对URL进行压缩。
在实现了爬虫队列之后就要继续实现Visited表了。
如何在大量的URL中辨别哪些是新的、哪些是被访问过的呢?通常使用的技术就是布隆过滤器(Bloom Filter)。
利用布隆过滤器判断一个元素是否在集合中是目前比较高效实用的方法。
1.4 设计爬虫架构
爬虫框架结构如图3所示。
图3 爬虫结构
其中:①URL Frontier含有爬虫当前准备抓取的URL;②D
NS解析模块用来解析域名(根据给定的URL决定从哪个Web获取网页);③解析模块提取文本和网页的链接集合;④重复消除模块决定一个解析出来的链接是否已经在URL
Fronier或者是否最近下载过。
下面通过实验来比较一下我们设计的爬虫抓取网页与原网页的对比,
见图4、图5。
图4 原网页 图5 抓取网页
通过比较可以发现,由于原网页有动画等多媒体元素,虽然爬虫无法抓取下来全部内容,但基本上是一个完整的爬虫。
2 限定爬虫的设计与实现
限定爬虫就是对爬虫所爬取的主机的范围作一些限制。
通常限定爬虫包含以下内容:①限定域名的爬虫;②限定爬取层数的爬虫;③限定IP的抓取;④限定语言的抓取。
限定域名的抓取,是一种最简单的限定抓取,只需要根据当前URL字符串的值来作出限定即可。
限定爬虫爬取的层次要比限定域名更复杂。
限定IP是限定抓取中最难的一部分。
通常分为限定特定IP和限定某一地区的IP。
限定特定IP抓取较为容易,只要通过URL就可以获得主机IP地址,如果主机IP在被限制的
列表中就不抓取。
否则正常工作。
想要限定IP抓取,首先要根据主机字符串获得IP地址。
下面我们通过实验来得到IP地址:
贵州民族学院:
主机域名:www.g
znc.edu.cnIP地址:210.40.132.8
贵州大学:
主机域名:www.g
zu.edu.cnIP地址:210.40.0.58根据URL得到IP地址之后,就要根据IP地址对某一地区的IP作出限制。
但是需要有一个IP与地区对应的数据库,
网上很多这样的数据库都是收费的,在此我们使用的是腾讯公司推出的一款免费数据库“QQWry.dat”,只要输入IP地址就可以查到对应IP地址所在的区域。
输入:210.40.0.58输出:
贵州省贵阳市:贵州大学输入:210.40.132.8输出:
贵州省贵阳市:贵州民族学院
根据IP地址制作一张列表,将限制地区的IP地址写入列表,爬虫如果检测到要抓取的IP地址属于该列表,就放弃抓取,这样一个限定爬虫就完成了。
3 结束语
本文介绍了爬虫的工作原理,重点介绍了通用爬虫和限定爬虫的设计及实现,并通过实验证明本文设计的爬虫可以达到预期效果。
参考文献:
[1] 孙立伟,
何国辉,吴礼发.网络爬虫技术的研究[J].电脑知识与技术,2010(15).
[2] 于成龙,
于洪波.网络爬虫技术研究[J].东莞理工学院学报,2011(3).
[3] 罗刚.自己动手写搜索引擎[M].北京:电子工业出版社,2009.[4] 唐波.网络爬虫的设计与实现[J].电脑知识与技术,2009(11).[5] 龚勇.
搜索引擎中网络爬虫的研究[D].武汉:武汉理工大学,2010.(责任编辑:杜能钢)
The Design and Imp
lementation of Web CrawlerAbstract:With the growing of Internet,search engine technology
develops rapidly.As an indispensable part of search en-gine,web crawler is particularly important,its performance directly determines the quality of gathering webpage informa-tion in large Internet.This paper designs and implements g
eneral crawler and limitative crawler.Key
Words:Web Crawler;General Crawler;Limitative Crawler·
731·第4期 王 娟,吴金鹏:网络爬虫的设计与实现。