新浪微博抓包分析

合集下载

新浪微博数据抓取详细教程

新浪微博数据抓取详细教程

新浪微博数据抓取详细教程本文介绍使用八爪鱼采集器简易模式采集抓取新浪微博的方法。

需要采集微博内容的,在网页简易模式界面里点击微博进去之后可以看到所有关于微博的规则信息,我们直接使用就可以的。

新浪微博数据抓取步骤1采集在微博首页进关键词搜索后的信息以及发文者的关注量,粉丝数等(下图所示)即打开微博主页进行登录后输入关键词进行搜索,采集搜索到的内容以及进入发文者页面采集关注量,粉丝数,微博数。

1、找到微博网页-关键词搜索规则然后点击立即使用新浪微博数据抓取步骤22、 简易模式中微博网页-关键词搜索的任务界面介绍查看详情:点开可以看到示例网址任务名:自定义任务名,默认为微博网页-关键词搜索任务组:给任务划分一个保存任务的组,如果不设置会有一个默认组 用户名:请填写您的微博账号密码:请填写微博账号的登录密码关键词/搜索词:用于搜索的关键词,只支持填写一个翻页次数:设置采集多少页,由于微博会封账号,限制翻页1-50页 将鼠标移动到?号图标和任务名顶部文字均可以查看详细的注释信息。

示例数据:这个规则采集的所有字段信息。

新浪微博数据抓取步骤33、任务设置示例例如要采集与十九大相关的微博消息在设置里如下图所示:任务名:自定义任务名,也可以不设置按照默认的就行任务组:自定义任务组,也可以不设置按照默认的就行用户名:请填写您的微博账号,必填密码:请填写微博账号的登录密码,必填关键词/搜索词:用于搜索的关键词,此处填写“十九大”翻页次数:设置采集多少页,此处设置2页设置好之后点击保存新浪微博数据抓取步骤4保存之后会出现开始采集的按钮新浪微博数据抓取步骤54、选择开始采集之后系统将会弹出运行任务的界面可以选择启动本地采集(本地执行采集流程)或者启动云采集(由云服务器执行采集流程),这里以启动本地采集为例,我们选择启动本地采集按钮。

新浪微博数据抓取步骤65、选择本地采集按钮之后,系统将会在本地执行这个采集流程来采集数据,下图为本地采集的效果新浪微博数据抓取步骤76、采集完毕之后选择导出数据按钮即可,这里以导出excel2007为例,选择这个选项之后点击确定新浪微博数据抓取步骤87、然后选择文件存放在电脑上的路径,路径选择好之后选择保存新浪微博数据抓取步骤9、这样数据就被完整的导出到自己的电脑上来了8相关采集教程:百度搜索结果采集豆瓣电影短评采集搜狗微信文章采集八爪鱼——70万用户选择的网页数据采集器。

微博爬虫采集数据详细方法

微博爬虫采集数据详细方法

新浪微博上有很多用户发布的社交信息数据,对于做营销或者运营行业的朋友来说,这些数据都非常的具有价值,比如做营销的同学可以根据微博的阅读量、转化量以及评论数等数据可以大致的判断这个人是否具有影响力,从而找到自身行业中的KOL。

另外像微博的评论数据,能反应出自身产品对于用户的口碑如何,利用爬虫采集数据,可以第一时间找到自身产品的缺点,从而进行改进。

那么,说了这么多,应该如何利用微博爬虫去采集数据呢。

步骤1:创建采集任务1)进入主界面,选择“自定义模式”2)将要采集的网址复制粘贴到网站输入框中,点击“保存网址”步骤2:创建翻页循环1)系统自动打开网页,进入微博页面。

在页面右上角,打开“流程”,以展现出“流程设计器”和“定制当前操作”两个板块。

将当前微博页面下拉至底部,出现“正在加载中,请稍后”的字样。

等待约2秒,页面会有新的数据加载出来。

经过2次下拉加载,页面达到最底部,出现“下一页”按钮微博爬虫采集数据方法图3“打开网页”步骤涉及Ajax下拉加载。

打开“高级选项”,勾选“页面加载完成后向下滚动”,设置滚动次数为“4次”,每次间隔“3秒”,滚动方式为“直接滚动到底部”,最后点击“确定”微博爬虫采集数据方法图4注意,这里的滚动次数、间隔时间,需要针对网站进行设置,可根据相关功能点教程进行学习:八爪鱼7.0教程——AJAX滚动教程八爪鱼7.0教程——AJAX点击和翻页教程/tutorial/ajaxdjfy_7.aspx?t=12)将页面下拉到底部,点击“下一页”按钮,在右侧的操作提示框中,选择“循环点击下一页”微博爬虫采集数据方法图5此步骤同样涉及了Ajax下拉加载。

打开“高级选项”,勾选“页面加载完成后向下滚动”,设置滚动次数为“4次”,每次间隔“3秒”,滚动方式为“直接滚动到底部”,最后点击“确定”微博爬虫采集数据方法图6步骤3:创建列表循环1)移动鼠标,选中页面里的第一条微博链接。

选中后,系统会自动识别页面里的其他相似链接。

抓包的分析报告

抓包的分析报告

抓包的分析报告1. 引言本文旨在通过对抓包数据的分析,对网络通信进行深入研究,从而揭示网络传输过程中的细节以及可能存在的安全隐患。

通过抓包分析,我们可以获取传输的原始数据,进而发现网络问题并进行相关的优化工作。

2. 抓包工具介绍抓包是一种网络分析的方法,通过获取网络中的数据包来进行深入分析。

常用的抓包工具包括 Wireshark、Tcpdump 等。

在本文中,我们使用 Wireshark 这一流行的抓包工具进行数据包分析。

Wireshark 是一款开源的网络协议分析软件,支持多种操作系统,用户可以通过 Wireshark 捕获和分析网络数据包,以便于查找和解决网络问题。

3. 抓包分析步骤3.1 抓包设置在开始抓包前,需要正确设置抓包工具。

我们需要指定要抓取的接口,以及过滤器来选择我们感兴趣的数据包。

为了保证抓包的有效性,可以在抓包前关闭一些不必要的网络应用,以减少干扰。

3.2 开始抓包设置完毕后,点击“开始”按钮开始进行抓包。

此时,Wireshark 将开始捕获网络数据包。

3.3 数据包过滤捕获到的数据包可能非常庞大,我们需要进行过滤以便于查找特定的数据包。

Wireshark 提供了强大的过滤功能,可以根据协议、源/目标 IP 地址、端口号等条件进行筛选。

3.4 数据包分析捕获到感兴趣的数据包后,我们可以对数据包进行深入分析。

Wireshark 提供了丰富的功能,可以查看每个数据包的详细信息,包括源/目标地址、端口号、协议类型、数据内容等。

4. 抓包分析实例为了更好地理解抓包过程和分析方法,我们将给出一个具体的抓包分析实例。

4.1 实验目标分析某网站的登录过程,并观察登录过程中的数据传输。

4.2 实验步骤•打开 Wireshark 并设置抓包过滤器为 HTTP。

•在浏览器中访问目标网站并进行登录。

•通过 Wireshark 捕获登录过程中的数据包。

•分析捕获到的数据包,观察登录过程中的数据传输情况。

微博数据获取方法

微博数据获取方法

微博数据获取方法
要获取微博数据,可以通过以下几种方法:
1. 使用微博的开放平台API:微博提供了一系列的接口,可以通过API获取用户个人信息、用户的微博内容、用户的关注关系等数据。

你可以从微博开放平台申请开发者账号,并获取API的访问权限,然后使用相应的API进行数据获取。

2. 使用爬虫工具:你可以使用网络爬虫工具,如Python的Scrapy框架或BeautifulSoup库,来爬取微博网页的内容。

通过分析微博网页的结构,可以提取需要的数据,如用户的微博内容、用户的关注列表等。

3. 使用第三方微博数据采集工具:市面上有一些第三方工具可以帮助你采集微博数据,这些工具通常提供了简化的操作界面,可以帮助你方便地设置爬取的范围和条件,并提供自动化的数据采集功能。

无论使用哪种方法,都需要注意遵守微博的使用条款和开放平台的规定,确保数据获取的合法性和合规性。

此外,由于微博的页面结构和API接口可能会有变动,你还需要及时跟踪微博的更新和调整,以确保数据获取的稳定性和准确性。

基于网络爬虫的新浪微博数据抓取技术

基于网络爬虫的新浪微博数据抓取技术

1引言随着移动互联网的飞速发展,人们越来越多地在社交网络上发表自己的见解,分享自己的生活,与他人进行交流讨论。

新浪微博作为国内最大的社交平台之一,同时也成了各类消息发布的最主要渠道之一。

截至2017年9月,微博月活跃用户3.76亿,日活跃用户1.65亿,每天都有用户发布上亿条微博,评论、转发或点赞其他微博。

一个如此庞大和公开的社交平台,每天都能产生海量信息,能为各种舆情监控、商业推广分析、自然语言处理等系统提供大量的数据支持[1]。

在国外,开展了针对于Twitter和Facebook等社交平台的一系列研究,但是不同于国外的Twitter和Facebook等平台,微博官方并没有提供相关接口给人们下载与微博相关的数据集,并且微博的登录、浏览等操作都有较敏感的反爬虫机制,这给数据的采集带来了困难,对普通的想获取相关数据的人员来说是个极大的挑战。

因此,快速获得微博数据的方法就是构建一个稳定高效的爬虫抓取系统。

2网络爬虫2.1原理网络爬虫(Web Crawler),是自动地抓取万维网信息的程序或者脚本,它们被广泛用于互联网搜索引擎或其他类似网站。

爬虫一般分为数据采集、处理和储存三个部分。

传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL 放入队列,直到满足系统的一定停止条件。

2.2网络爬虫框架ScrapyScrapy是Python开发的一个快速、可扩展的Web抓取框架,用于抓取Web站点并从页面中提取结构化的数据。

通过Scrapy中的Spider模块,能方便地定义网址爬取和数据提取的规则。

3微博爬虫策略现在各种爬虫的搜索策略[2]主要为:深度优先搜索策略、广度优先搜索策略、非完全PageRank策略以及大站优先搜索策略。

微博跟其他普通网站相比,动态性和网页结构都比较复杂,其对于爬虫的防范也更加严格,普通的爬虫程序一般不能直接获取到相应的网页内容,但其网页内容中的数据格式较为统一。

微博数据挖掘的方法及其应用

微博数据挖掘的方法及其应用

微博数据挖掘的方法及其应用微博是中国最大的社交媒体平台之一,拥有着数亿的用户,每天都有数以亿计的消息在微博上进行传播。

这些数据中蕴藏着丰富的信息,因而微博数据挖掘逐渐成为了一个热门话题。

本文将介绍微博数据挖掘的方法及其应用,并探讨这一领域的发展潜力。

一、微博数据挖掘的方法微博数据挖掘主要涉及文本挖掘、网络分析、情感分析等多个方面。

下面将对这些方面的方法进行详细介绍。

1. 文本挖掘文本挖掘主要涉及文本的提取、清洗、分词、去噪、特征提取等操作,以便对文本数据进行分析和分类。

在微博数据挖掘中,文本挖掘可以用来识别话题、发现事件、分析情感等。

例如,可以通过对微博文本进行关键词提取等操作,来找出与特定话题相关的微博。

2. 网络分析网络分析主要涉及社交网络的构建、社交网络中信息的传播、节点的重要性等方面的研究。

在微博中,网络分析可以用来分析用户之间的互动关系、发现社交网络中的影响者等。

例如,在一个社交网络中,影响力比较高的用户可能会更容易将某个话题传播出去,因而这些用户在分析中可能会受到更多的关注。

3. 情感分析情感分析主要涉及人类情感的识别、分类、理解等方面的研究。

在微博数据挖掘中,情感分析可以用来探测微博用户对某个话题的情感倾向,从而得出对话题的态度和立场。

例如,可以通过对微博文本中表达情感的词汇进行提取和分析,来判断用户对某个话题的喜欢程度或厌恶程度。

二、微博数据挖掘的应用微博数据挖掘可以应用于多个领域,这里列举了几个主要应用领域。

1. 舆情分析舆情分析可以通过对微博数据进行挖掘和分析,来了解民众对某个话题的反应和态度。

例如,可以通过对特定事件相关的微博进行分析,来了解事件的发展趋势和舆情变化。

这种分析可以帮助政府、企业和个人及时了解公众的反应,并做出相应的决策和应对措施。

2. 社交网络分析社交网络分析可以通过对微博社交网络的分析,来了解用户之间的互动关系和影响力等。

这种分析可以帮助企业或组织找到合适的影响者进行宣传,并更加精确地推广和营销产品,提高社交网络媒体的效益。

使用python抓取新浪微博数据

使用python抓取新浪微博数据

使用python抓取新浪微博数据本篇文章是python爬虫系列的第四篇,介绍如何登录抓取新浪微博的信息。

并对其中的关键内容进行提取和清洗。

开始前的准备工作首先是开始之前的准备工作,与前面的文章相比,我们除了导入库文件,还把设置登录页URL,以及登录用户密码也放在了准备工作中。

下面分别来说明。

导入所需的库文件,第一个是requests,用于请求和页面抓取,第二个是re正则库,用于从页面的代码中提取所需要的信息。

第三个是pandas库,用来进行拼表以及数据导出。

#导入requests库(请求和页面抓取)import requests#导入正则库(从页面代码中提取信息)import re#导入pandas库(用于创建数据表和导出csv)import pandas as pd#设置登陆用户名和密码payload = {'username': '用户名','password': '密码'}#微博登陆页URLurl1='https:///signin/login'#微博内容抓取页URLurl2='/askcliff/home'准备工作完成后,还需要对爬虫进行伪装,下面是具体的步骤和内容。

将爬虫伪装成浏览器首先是设置头文件信息,里面包括浏览器的信息和字符编码以及引荐来源信息等等。

这些信息的获得方法请参考本系列第三篇文章的内容。

#设置请求头文件信息headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.11 (KHTML, like Gecko) Chrome/23.0.1271.64 Safari/537.11','Accept':'text/html;q=0.9,*/*;q=0.8','Accept-Charset':'ISO-8859-1,utf-8;q=0.7,*;q=0.3','Accept-Encoding':'gzip','Connection':'close','Referer':'/'}设置Cookie的内容,获得cookie值的内容也请参考第三篇文章的内容。

微博爬虫如何爬取数据

微博爬虫如何爬取数据

微博爬虫如何爬取数据微博上有大量的信息,很多用户会有采集微博信息的需求,对于不会写爬虫的小白来说可能是一件难事。

本文介绍一个小白也可以使用的工具是如何爬取数据的。

介绍使用八爪鱼采集器简易模式采集抓取微博页面用户信息的方法。

需要采集微博内容的,在网页简易模式界面里点击微博进去之后可以看到所有关于微博的规则信息,我们直接使用就可以的。

微博爬虫抓取数据步骤1批量采集微博每个用户界面的信息(下图所示)即在博主个人主页的信息1、找到微博用户页面信息采集任务然后点击立即使用微博爬虫抓取数据步骤22、简易采集中微博用户页面信息采集的任务界面介绍查看详情:点开可以看到示例网址;任务名:自定义任务名,默认为微博用户页面信息采集;任务组:给任务划分一个保存任务的组,如果不设置会有一个默认组;网址:用于填写博主个人主页的网址,可以填写多个,用回车分隔,一行一个,将鼠标移动到?号图标和任务名顶部文字均可以查看详细的注释信息;示例数据:这个规则采集的所有字段信息。

微博爬虫抓取数据步骤33、任务设置示例例如要采集与相关的微博消息在设置里如下图所示:任务名:自定义任务名,也可以不设置按照默认的就行任务组:自定义任务组,也可以不设置按照默认的就行网址:从浏览器中直接复制博主个人主页的网址,此处以“人民日报”和“雷军”为例。

示例网址:/rmrb?is_all=1/leijun?refer_flag=1001030103_&is_all=1设置好之后点击保存微博爬虫抓取数据步骤4保存之后会出现开始采集的按钮微博爬虫抓取数据步骤54、选择开始采集之后系统将会弹出运行任务的界面可以选择启动本地采集(本地执行采集流程)或者启动云采集(由云服务器执行采集流程),这里以启动本地采集为例,我们选择启动本地采集按钮。

微博爬虫抓取数据步骤65、选择本地采集按钮之后,系统将会在本地执行这个采集流程来采集数据,下图为本地采集的效果微博爬虫抓取数据步骤76、采集完毕之后选择导出数据按钮即可,这里以导出excel2007为例,选择这个选项之后点击确定微博爬虫抓取数据步骤8 7、然后选择文件存放在电脑上的路径,路径选择好之后选择保存微博爬虫抓取数据步骤98、这样数据就被完整的导出到自己的电脑上来了微博爬虫抓取数据步骤10。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

新浪微博抓包分析
摘要:数据包捕获及分析主要实现了对网络上的数据包进行捕获及分析。

在包分析功能模块,根据报文协议的格式,把抓到的包进行解析,从而得到网络层和传输层协议的报头内容等信息。

本次研究通过对新浪微博的网络数据包进行捕捉,分析数据包的结构,从而掌握数据包捕获和数据包分析的相关知识。

关键词:包分析;协议;数据包
1序言
本实验研究通过技术手段捕获数据包并加以分析。

Ether Peek5.1是当前较为流行的图形用户接口的抓包软件,是一个可以用来监视所有在网络上被传送的包,并分析其内容的程序。

它通常被用来检查网络工作情况,或是用来发现网络程序的bugs。

通过Ether Peek对TCP、SMTP和FTP等常用协议进行分析,非常有助于网络故障修复、分析以及软件和协议开发。

计算机网络安全、信息安全已经成为一个国际性的问题,每年全球因计算机网络的安全问题而造成的经济损失高达数百亿美元,且这个数字正在不断增加。

网络数据包的捕获与分析对研究计算机网络安全问题有着重要意义。

网络安全问题既包括网络系统的安全,又包括网络信息的安全和机密性。

2抓包工具介绍及抓包原理
2.1工具介绍
目前常用的抓包工具有Sniffer,wireshark,WinNetCap,WinSock Expert,EtherPeek等。

本次实验研究是在windows XP系统环境下安装EtherPeek进行抓包。

EtherPeek是个用来截取网络数据包的工具,主要用监听统计和捕获数据包两种方式进行网络分析。

它只能截取同一HUB的包,也就是说假如你的便携装了EtherPeek,那么你的便携必须与你要监控的目的地址和源地址中的一个接在同一HUB上。

有了这个工具,如果5250仿真或telnet仿真出了问题,就可以用它来截取数据包,保存下来,再进行分析。

2.2数据包捕获原理
在通常情况下,网络通信的套接字程序只能响应与自己硬件地址相匹配的或
是以广播形式发出的数据帧,对于其他形式的数据帧比如已到达网络接口但却不是发给此地址的数据帧,网络接口在验证投递地址并非自身地址之后将不引起响应,也就是说应用程序无法收取与自己无关的的数据包。

所以我们要想实现截获流经网络设备的所有数据包,就要采取一点特别的手段了:将网卡设置为混杂模式。

这样一来,该主机的网卡就可以捕获到所有流经其网卡的数据包和帧。

但是要注意一点,这种截获仅仅是数据包的一份拷贝,而不能对其进行截断,要想截断网络流量就要采用一些更底层的办法。

3新浪微博数据包捕获和分析
3.1微博登录状态分析
在实验正式开始之前,在本机上配置好实验环境,之后启动EhterPeek5.1软件,点击“Start Capture”开始抓包,通过搜狗浏览器主页点击新浪微博客户端,打开登录页面。

见图1.1
图1.1新浪微博登录页面
易知,新浪微博使用HTTP协议进行通信,客户端主机的IP为10.4.23.25。

第210数据包检验客户端Ping Server IP是否可达,第211数据包显示Server返回Reply,此数据包说明网络是通畅的(图1.2)。

Ping是个使用频率极高的实用程序,用于确定本地主机是否能与另一台主机交换(发送与接收)数据报。

根据返回的信息,我们就可以推断TCP/IP参数是否设置得正确以及运行是否正常。

需要注意的是:成功地与另一台主机进行一次或两次数据报交换并不表示TCP/IP配置就是正确的,我们必须执行大量的本地主机与远程主机的数据报交换,才能确信TCP/IP的正确性。

图1.2Ping
打开新浪微博客户端时,进行了域名解析,客户机发出请求解析域名
的报文,本地的域名服务器收到请求后,查询本地缓存,假设没有该纪录,则本地域名服务器10.1.12.10向根域名服务器发出请求解析域名 。

根域名服务器收到请求后查询本地记录,同时给出的地址,并将结果返回给本地域名服务器10.1.12.10。

域名服务器10.1.12.10收到回应后,再发出请求解析域名的报文。

域名服务器收到请求后,开始查询本地的记录,并将最终结果返回给客户本地域名服务器10.1.12.10。

解析新浪微博的IP地址为61.172.207.223,如下图1.3所示。

图1.3
输入账号1351803513@ 和密码******后,登录到我的个人微博。

第407条数据包显示客户端发送Get请求sina地址,登录相关页面,第415、416、418、419条数据显示被请求方找到资源并且信息返回成功,第415条数据中具体显示Http返回的信息:Status 200,Reason OK等,如图1.4、1.5、1.6所示。

图1.4
图1.5
图1.6
3.2发布微博状态分析
用户发送一条内容为“1110101”的微博,如图2.1。

第3315条数据(所使用数据包与3.2节中的数据包不同)显示客户端发送POST请求发送微博,第3316条数据中包含微博正文信息。

图2.1
由对应的数据记录可知:HTTP获取信息,数据中还标明了具体的统一资源标示符URI。

URI、URL和URN的概念比较容易混淆。

URI,是uniform resource identifier,统一资源标识符,用来唯一的标识一个资源。

而URL是uniform resource locator,统一资源定位器,它是一种具体的URI,即URL可以用来标识一个资源,而且还指明了如何locate这个资源。

而URN,uniform resource name,统一资源命名,是通过名字来标识资源。

也就是说,URI是以一种抽象的,高层次概念定义统一资源标识,而URL和URN则是具体的资源标识的方式,URL和URN 都是一种URI。

该数据条中还显示了HTTP的版本信息,所使用HTTP的版本为HTTP/1.1。

Referer: /u/2129438573/home?wvr=5 <CR> <LF> ..,此条记录说明了引用来源,即来源于我的个人微博地址,或者说是由上述地址链接过来的。

见图2.2、2.3。

图2.2
图2.3
TCP/IP协议中有个重要的三次握手协议也能在抓获的数据包中体现(见图2.4)。

所谓的“三握手”,即对每次发送的数据量是怎样跟踪进行协商使数据段的发送和接收同步,根据所接收到的数据量而确定的数据确认数及数据发送、接
收完毕后何时撤消联系,并建立虚连接。

为了提供可靠的传送,TCP在发送新的数据之前,以特定的顺序将数据包的序号,并需要这些包传送给目标机之后的确认消息。

TCP总是用来发送大批量的数据。

当应用程序在收到数据后要做出确认时也要用到TCP。

由于TCP需要时刻跟踪,这需要额外开销,使得TCP的格式有些显得复杂。

TCP握手协议在TCP/IP协议中,TCP协议提供可靠的连接服务,采用三次握手建立一个连接。

第1168条数据显示第一次握手,主机A发送位码为syn=1,随机产生数据包到服务器,主机B由SYN=1知道,A要求建立联机,可知源地址为10.5.5.123,目的地址为115.238.190.43,源端口号是1350,目的端口号是80,序列号为1337113962,确认号为0。

第1186、1187条分别是第三、第四次握手。

体细节见图2.5—2.7。

图2.4
图2.5
图2.6
图2.7
4结束语
本文较详细地描述了如何用抓包工具对网络上的数据包进行捕获及分析。

即首先通过EtherPeek5.1抓包工具把经过主机网卡的数据包截获,并存储在缓冲存储器中,然后选取研究所需要的数据逐一研究分析。

对网络抓包分析研究的重要性在于,管理员能借助通信过程中的消息传递来监控网络,判断网络问题,维护网络安全,对帮助管理网络区域有重要意义。

本次实验,通过亲自动手安装抓包工具、抓包、选取数据包、分析数据包到最后把成果撰写成文,掌握了抓包软件的基本用法,学会了一般报文段的解读,对报文段的方法字段有了一定的认识。

虽然花费的时间和精力较多,但着实让我收获不少。

将课本中的理论知识运用实践当中,更让我加深了对网络知识的理解,特别是TCP协议中的三次握手协议和DNS域名解析,原本已经对它们的概念比较模糊,现在巩固了相关知识点,并且记忆深刻。

在今后的学习中,我们也不该拘泥于书本,将知识运用于实践才能发挥知识本身的作用,并帮助我们更加深刻地理解与记忆。

“绝知此事要躬行”,大概说的就是这个道理。

参考文献
[1]祝瑞,车敏.基于HTTP协议的服务器程序分析[J].现代电子技术,2012,04:117-119+122.
[2]朱晶.TCP协议简述与三次握手原理解析[J].电脑知识与技术,2009,05:1079-1080.
[3]彭沙沙,张红梅,卞东亮.计算机网络安全分析研究[J].现代电子术,2012,04:109-112+116.
[4]耿奎,黄雪琴.基于软件构建网络协议分析实验平台[J].数字技术与应用,2011,04:131-133.
[5]闫丽丽,昌燕,周兴涛.网络数据包捕获机制研究[J].微计算机信息,2007,09:43-45.
[6]戴宏伟.基于协议分析的入侵检测技术研究[D].中南大学,2007.
[7]胡云峰.Web数据抓包分析及C/S模式数据提交研究[J].文山学院学报,2011,03:59-61+71.。

相关文档
最新文档