搜索引擎的原理
搜索引擎工作原理

搜索引擎工作原理搜索引擎是一种通过收集、存储、索引和呈现互联网上的信息来帮助用户找到所需信息的工具。
它们使用复杂的算法和技术来分析和组织互联网上的海量数据,并根据用户的查询提供相关的搜索结果。
下面将详细介绍搜索引擎的工作原理。
1. 网络爬虫搜索引擎的第一步是使用网络爬虫(也称为蜘蛛或机器人)来浏览互联网上的网页。
网络爬虫从一个初始的网址开始,然后按照链接逐个访问其他网页,并将这些网页的内容下载下来。
爬虫会遵循互联网上的链接,以便尽可能地覆盖更多的网页。
爬虫还会更新已经被索引的网页,以便获取最新的信息。
2. 网页索引一旦爬虫下载了网页的内容,搜索引擎会将这些内容存储在一个被称为索引的数据库中。
索引是搜索引擎的核心组成部分,它包含了关键词、网页的URL、摘要和其他相关信息。
索引使得搜索引擎能够快速地找到相关的网页,并根据用户的查询返回相关的搜索结果。
为了建立索引,搜索引擎会对网页的内容进行分析和处理。
它们会将网页的文本提取出来,并去除HTML标签和其他噪音。
然后,搜索引擎会对文本进行分词,将文本划分为单词或短语。
这些单词或短语被称为关键词,它们是搜索引擎用来匹配用户查询的重要依据。
3. 搜索算法搜索引擎使用复杂的算法来确定哪些网页与用户的查询最相关。
这些算法会考虑多个因素,例如关键词的出现频率、关键词的位置、网页的质量和权威性等。
搜索引擎还会使用一些技术来过滤垃圾信息和欺诈性网页,以提供高质量的搜索结果。
4. 搜索结果排名搜索引擎会根据算法的结果对搜索结果进行排名。
排名决定了搜索结果在搜索引擎页面上的显示顺序。
通常,排名靠前的搜索结果被认为是最相关的。
搜索引擎会根据用户的查询和网页的相关性对搜索结果进行排序,并将最相关的结果显示在前几页。
5. 用户体验和反馈搜索引擎还会考虑用户的体验和反馈来不断改进搜索结果的质量。
它们会收集用户的点击行为、停留时间和搜索历史等信息,并根据这些信息来优化搜索结果的排序和相关性。
搜索引擎工作原理

搜索引擎工作原理搜索引擎是一种能够通过关键词搜索来帮助用户快速找到相关信息的工具。
它的工作原理可以简单概括为以下几个步骤:网页抓取、网页索引、查询处理和结果呈现。
1. 网页抓取:搜索引擎通过网络爬虫程序(也称为蜘蛛或机器人)自动抓取互联网上的网页内容。
爬虫会从一个初始的种子网址开始,然后通过链接跳转和页面解析,逐渐抓取更多的网页。
爬虫会遵循网页的robots.txt文件,该文件指定了哪些页面可以被抓取和索引。
2. 网页索引:抓取到的网页内容会被存储在搜索引擎的数据库中,形成一个网页索引。
索引是搜索引擎的核心组成部分,它包含了关键词和网页的对应关系,以及网页的其他重要信息,如标题、摘要、URL等。
索引的目的是为了加快搜索速度和提高搜索结果的准确性。
3. 查询处理:当用户输入关键词进行搜索时,搜索引擎会对查询进行处理。
首先,它会对查询进行分词,将查询拆分成多个关键词或短语。
然后,搜索引擎会利用索引中的关键词信息,匹配与查询相关的网页。
匹配的算法通常会考虑关键词的权重、位置和其他相关因素,以确定最相关的网页。
4. 结果呈现:搜索引擎根据匹配度对搜索结果进行排序,并将最相关的网页展示给用户。
搜索结果页面通常包括标题、URL、摘要和其他相关信息。
搜索引擎还会根据用户的搜索历史、地理位置和其他个性化因素,对搜索结果进行个性化排序和推荐。
除了以上的基本工作原理,搜索引擎还会考虑其他因素来提高搜索结果的质量和用户体验。
例如,搜索引擎会对网页的可访问性、网页的质量和权威性进行评估,以过滤掉垃圾信息和低质量内容。
搜索引擎还会定期更新索引,增加新的网页和删除已失效的网页。
总结起来,搜索引擎的工作原理包括网页抓取、网页索引、查询处理和结果呈现。
通过这些步骤,搜索引擎能够快速、准确地为用户提供与关键词相关的网页信息。
搜索引擎的不断优化和改进,使得用户能够更方便地获取所需的信息,提高了互联网的使用效率。
搜索引擎的工作原理

搜索引擎的工作原理搜索引擎是一种用于在互联网上搜索信息的工具。
它通过采集、索引和排序互联网上的网页内容,为用户提供相关的搜索结果。
搜索引擎的工作原理可以简单地分为三个步骤:抓取网页、建立索引和提供搜索结果。
1. 抓取网页搜索引擎通过网络爬虫(也称为蜘蛛或者机器人)来抓取互联网上的网页。
网络爬虫会按照一定的规则从一个网页转到另一个网页,将网页的内容下载下来。
爬虫会根据网页中的链接不断地跳转到其他网页,形成一个爬行路径,以获取尽可能多的网页内容。
2. 建立索引抓取下来的网页内容会被搜索引擎进行处理和分析,以建立一个庞大的网页索引。
索引是一种结构化的数据存储方式,它会记录每一个网页的关键信息,如标题、摘要、URL和关键词等。
搜索引擎会对网页内容进行分词处理,将关键词和对应的网页进行关联。
这样,当用户搜索关键词时,搜索引擎可以快速地找到相关的网页。
3. 提供搜索结果当用户输入关键词进行搜索时,搜索引擎会根据用户的需求从建立的索引中匹配相关的网页。
搜索引擎会根据一系列的算法,对匹配的网页进行排序,并将最相关的网页展示给用户。
排序算法会考虑多个因素,如关键词的浮现频率、网页的权重和链接的质量等。
搜索引擎还会提供一些搜索结果的过滤选项,如时间范围、文件类型和地域等,以满足用户的个性化需求。
搜索引擎的工作原理虽然看似简单,但实际上暗地里涉及了复杂的技术和算法。
为了提高搜索结果的质量和准确性,搜索引擎公司会不断地改进和优化搜索引擎的工作原理。
他们会利用机器学习和人工智能等技术,不断提升搜索引擎的智能化水平,以更好地满足用户的搜索需求。
搜索引擎的工作原理

搜索引擎的工作原理搜索引擎是一种用于匡助用户在互联网上查找信息的工具。
它通过采集、索引和排序互联网上的网页内容,以便用户能够通过关键词搜索来获取相关的信息。
搜索引擎的工作原理可以分为以下几个步骤:1. 网页抓取:搜索引擎通过网络爬虫程序(也称为蜘蛛)自动抓取互联网上的网页内容。
网络爬虫会按照一定的规则遍历网页,并将网页的内容下载到搜索引擎的数据库中。
2. 网页索引:搜索引擎将抓取到的网页内容进行索引处理,以便能够快速地检索和呈现相关的结果。
索引是一个包含关键词和网页地址的数据库,它可以匡助搜索引擎快速找到相关的网页。
3. 关键词分析:当用户输入关键词进行搜索时,搜索引擎会对用户输入的关键词进行分析。
关键词分析的目的是理解用户的意图,并根据用户的意图提供相关的搜索结果。
4. 搜索算法:搜索引擎使用一系列复杂的算法来确定哪些网页与用户的搜索意图最相关。
这些算法会根据网页的内容、关键词的浮现频率、网页的权威性等因素来评估网页的相关性,并将最相关的网页排在搜索结果的前面。
5. 搜索结果呈现:搜索引擎会根据算法的评估结果,将最相关的网页呈现给用户。
搜索结果通常以列表的形式展示,每一个搜索结果都包含了网页的标题、描述和网址等信息,以便用户能够快速浏览和选择合适的结果。
除了以上的基本原理,搜索引擎还会考虑用户的搜索历史、地理位置和其他个性化因素来提供更加精准的搜索结果。
此外,搜索引擎还会不断地更新索引和算法,以适应互联网上不断变化的内容和用户需求。
总结起来,搜索引擎的工作原理包括网页抓取、网页索引、关键词分析、搜索算法和搜索结果呈现等步骤。
通过这些步骤,搜索引擎能够匡助用户快速、准确地找到他们所需的信息。
搜索引擎的工作原理是什么

搜索引擎的工作原理是什么
搜索引擎的工作原理是通过自动化程序(也称为爬虫或蜘蛛)来扫描互联网上的网页,并将这些网页的内容存储在一个巨大的数据库中。
当用户输入关键词进行搜索时,搜索引擎会根据关键词在数据库中的索引进行匹配,并返回与关键词相关的网页列表给用户。
搜索引擎的工作过程可以概括为以下几个步骤:
1. 爬取:搜索引擎的爬虫程序会从互联网上自动爬取网页,并将这些网页的内容下载下来。
2. 索引:搜索引擎会对下载的网页进行处理,并提取其中的主要信息(如标题、正文、链接等),然后将这些信息存储在一个倒排索引的数据库中。
倒排索引根据关键词建立索引,将关键词与对应的网页进行关联。
3. 排名:当用户输入关键词进行搜索时,搜索引擎会根据索引中的关键词进行匹配,找到与关键词相关的网页。
搜索引擎会根据一系列算法对这些相关网页进行排序,以确定搜索结果的排名。
排名的依据通常包括关键词的频率、位置、网页的质量和权威度等因素。
4. 显示结果:搜索引擎会根据排名结果将相关的网页列表展示给用户。
搜索结果通常以页面的标题、摘要和网址的形式呈现,用户可以通过点击链接来访问相关的网页。
以上是搜索引擎的基本工作原理,不同的搜索引擎可能有不同的算法和技术来改进搜索结果的质量和准确性。
搜索引擎的原理是

搜索引擎的原理是
搜索引擎的原理是通过收集和组织互联网上的信息,然后根据用户的搜索关键词来匹配和排名搜索结果。
首先,搜索引擎会使用网络爬虫程序(也称为蜘蛛或机器人)来自动浏览互联网上的网页。
爬虫程序会从一个网页开始,然后通过页面上的链接跳转到其他页面,并将这些页面的内容下载到搜索引擎的数据库中。
这个过程称为爬行。
接下来,搜索引擎会对收集到的网页进行索引。
索引是一个结构化的数据库,其中存储了每个网页的关键信息,如标题、URL、摘要和内容标签等。
通过索引,搜索引擎可以快速地查找和检索网页,以便根据用户的搜索查询返回相关的结果。
当用户输入一个搜索关键词时,搜索引擎会根据索引中的信息来匹配相关的网页。
它会比较关键词与网页标题、正文和其他标签的相似度,并根据算法对搜索结果进行排序。
常见的算法包括PageRank和TF-IDF等。
在返回搜索结果时,搜索引擎会根据搜索查询的相关性和网页的质量来排名结果。
相关性指的是搜索查询与网页内容的匹配程度,而质量则涉及到网页的可信度、权威性、受欢迎程度等因素。
在确保搜索结果的多样性的情况下,搜索引擎会尽可能地提供最相关和有用的结果给用户。
此外,搜索引擎还会根据用户的搜索历史、地理位置和其他个性化因素来调整搜索结果,以提
供更加个性化的搜索体验。
总之,搜索引擎的原理是通过爬行、索引和排序等步骤来收集和组织互联网上的内容,并根据用户的搜索查询来返回最相关和有用的搜索结果。
标题的重要性在搜索引擎的算法中扮演着重要的角色,但是搜索引擎也会考虑其他因素来提供更全面、准确和个性化的搜索结果。
搜索引擎工作原理

搜索引擎工作原理搜索引擎是我们日常生活中时常使用的工具,它可以匡助我们快速找到所需的信息。
但是,不少人并不清晰搜索引擎是如何工作的。
本文将为大家详细介绍搜索引擎的工作原理。
一、爬虫抓取网页1.1 爬虫是搜索引擎的重要组成部份,它会定期抓取互联网上的网页内容。
1.2 爬虫会从一个种子网址开始,然后通过链接不断地向下抓取其他网页。
1.3 爬虫会根据网页的重要性和更新频率来确定抓取的优先级。
二、建立索引2.1 爬虫抓取到的网页内容会被存储在搜索引擎的数据库中,这些内容会被分析并建立索引。
2.2 索引是搜索引擎的核心部份,它包含了网页的关键词、链接、标题等信息。
2.3 索引的建立会根据网页的内容、链接质量等因素来确定网页的排名。
三、检索与排序3.1 当用户输入关键词进行搜索时,搜索引擎会根据索引中的信息进行检索。
3.2 检索过程会根据关键词的匹配程度、网页的质量等因素来确定搜索结果。
3.3 搜索结果会按照像关性进行排序,通常排名靠前的网页质量更高。
四、更新与优化4.1 搜索引擎会定期更新索引,以保证搜索结果的准确性和时效性。
4.2 网站所有者可以通过优化网站结构、内容等方式来提高网站在搜索引擎中的排名。
4.3 搜索引擎也会根据用户的搜索行为和反馈来不断优化搜索算法。
五、隐私与安全5.1 搜索引擎会采集用户的搜索记录和行为数据,以提供更好的搜索结果。
5.2 用户可以通过设置来保护自己的隐私,例如清除搜索记录、使用匿名搜索等方式。
5.3 搜索引擎也会采取一系列措施来保护用户的隐私和数据安全。
总结:搜索引擎的工作原理是一个复杂的系统,包括爬虫抓取、建立索引、检索与排序、更新与优化、隐私与安全等多个环节。
了解搜索引擎的工作原理有助于我们更好地利用搜索引擎,获取更准确、有效的信息。
搜索引擎的原理

搜索引擎的原理
搜索引擎是一种能够帮助用户在互联网上查找信息的工具,它的原理主要包括三个方面,爬虫抓取、索引建立和检索排序。
首先,搜索引擎通过爬虫抓取来获取互联网上的信息。
爬虫是一种自动程序,它会按照一定的规则在互联网上抓取网页,并将这些网页的内容下载到搜索引擎的服务器上。
爬虫会根据链接的深度和页面的重要性来确定抓取的优先顺序,从而保证搜索引擎能够覆盖尽可能多的网页。
其次,搜索引擎会对抓取到的网页进行索引建立。
索引是一种结构化的数据,它包含了对网页内容的关键词、链接、图片等信息的索引。
搜索引擎会对抓取到的网页进行分词处理,将其中的关键词提取出来,并建立倒排索引,以便用户在搜索时能够更快地找到相关的信息。
最后,当用户在搜索引擎中输入关键词进行检索时,搜索引擎会根据索引中的信息进行检索排序。
检索排序是根据用户的搜索意图和网页的相关性来确定搜索结果的排名。
搜索引擎会根据网页的关键词出现频率、链接的质量、网页的权威性等因素来对搜索结果进行排序,从而让用户能够更容易地找到自己需要的信息。
总的来说,搜索引擎的原理是通过爬虫抓取、索引建立和检索排序来帮助用户在互联网上查找信息。
这一原理的实现涉及到大量的技术和算法,包括网页抓取、分词处理、倒排索引、链接分析等方面的内容。
通过不断地优化和改进,搜索引擎能够更好地满足用户的信息检索需求,成为人们日常生活中不可或缺的工具。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Spider眼中的网页分类
1
已经抓取页面
等待抓取页面
可以抓取页面
暗网页面
Spider的抓取特点
• Spider对于常规网页的抓取,是从一个入口开始抓取的时候,就会获 取这个网页上的所有导出链接,因此当Spider随机抓取其中的一个链接的时 候,同样又会收集到很多新的链接。此时Spider面临一个抓取方式的选择。 • 1、沿着一条链接一层一层的抓取下去,直到这个链接的尽头,然后返回按 照这样的办法继续抓取另一个链接。这就叫深度优化抓取。 • 2、先把入口处的链接全部抓取一遍,把新发现的URL一次入库排列,对同 一层级的页面进行一次横向抓取,然后再进入下一层,这叫做广度优先抓取。
页面。
• 再好的搜索引擎也无法与人相比,这就是为什么网站要进行搜索引擎优化。没有SEO的 帮助,搜索引擎常常并不能正确的返回最相关、最权威、最有用的信息。
搜索引擎抓取详解
Spider
• 他是搜索引擎最开始的一个功能模块,同时,只有它抓取回来的页面或者地 址才可以被索引并参与进排名里面。只要被Spider抓取的URL地址都可能会 参与排名,但是参与排名的网页不一定被抓取了内容。例如现在的天猫商城, 只会被抓去地址,但是正文内容不会抓取。(他是搜索引擎用来抓取网站页 面的一个程序。他抓取页面需要有一个入口,这个入口一般先期可以由我们 人工提交。例如搜索引擎提交我们的网站。)
Spider抓取
• 1、尽可能多的抓取页面 • 2、避免重复的页面抓取 • 因此在实际的抓取过程中, Spider会建立两个列表组,一个是已经抓取的 URL列表,一个是等待抓取的URL列表。每抓取一个新页面的时候,提取出 来的页面链接,都会去和已经抓取的URL列表中的链接去一一比对,如果发 现该链接已经抓取过,就会直接丢弃,如果发现该链接还没有抓取,就会把 它放在等待抓取的列表末尾排队等候。
深度抓取和广度抓取
理论上,Spider不管采用深度还是广度优先策略,只要时间足够,都可以把 互联网上的内容统统抓取一遍,但是很不幸,搜索引擎的Spider时间也非常 宝贵,单一方法的抓取时很奢侈的,所以一般搜索引擎都是采用两种方式相 结合的方式进行的。这就涉及到一个有限选择的问题。一般情况下, Spider 可以在域名级别的网页使用广度的优先抓取策略,这样可以尽可能抓取更多 的网站。在网站内部页面级别一般会根据网站权重综合使用广度和深度优先 抓取,也就是说网站权重,直接影响到抓取量的大小。刚上线的网站一般被 抓去只有一个首页。从抓取的特点上可以看出,对于重要网站优先抓取,重 要的网站和网站内的重要页面是优先抓取的。大站链接也是优先抓取的。
1、何为用户体验
• 因为用户一般浏览自己搜索内容的前三页结果,第四页以后都会很少浏览, 所以搜素引擎会收集所有用户的搜索请求,统计所有搜索结果中,用户可能
看多,
再次被抓取的频率就会越高。
历史更新频率
• 网站页面的主体内容部分稳定的更新频率,也会带来搜索的稳定关注。但是 更新的区域主要是内容区域,不是周围的广告和导航和推荐模块。
网页权重值
• 除了上述的因素,网页权重也会影响到网页的再次抓取的频率。 • 因此在SEO工作中,有时候为了提高某一网站的抓取频率,一般会重点为该 页面的链接提高权重,加大该网页的更新频率。在用户体验方面我们可以用 标题和描述吸引点击,不仅可以提升排名,也可以间接增加页面被Spider抓 取的频率。
• •
搜索词处理 用户在搜索引擎界面输入关键词,单击“搜索”按钮后,搜索引擎程序即 对搜索词进行处理,如中文特有的分词处理,去除停止词,判断是否需要 启动整合搜索,判断是否有拼写错误或错别字等情况。搜索词的处理必须 十分快速。
•
•
排序
对搜索词处理后,搜索引擎程序便开始工作,从索引数据库中找出所有包含搜索词的网 页,并且根据排名算法计算出哪些网页应该排在前面,然后按照一定格式返回到“搜索”
Spider的抓取及分类
• Spider想要抓取到网页,首先要解决时发现网页的入口,没有入口他就无法 进入网站,更是无从抓取网页了。因此这里就涉及到抓取的策略性问题,这 个也是我们后续SEO要解决的第一步。 • 那么抓取的策略是什么呢? • 其次是 ,网页内容是有时效性的,有一些网页内容不存在实时的更新,依 然有着重要的意义,有一些需呀实时更新,那么对于这些信息, Spider采 用什么样的再次抓取和更新策略呢? • 作为大型的搜索引擎, Spider不可能只有一个,为了节省资源,保证效率, 要保证多个Spider同时作业而且工作不重复,这样就会有多个Spider分区域 同时作业,这样分布式抓取策略又是什么样的呢?
Spider的优缺点
• 1, Spider不能很好的读取JS、Ajax和flash中的内容。 • 2, Spider是直接访问网站的。 • 3, Spider不会主动注册登录,不会分析和抓取robots中已经屏蔽的内容。 • 4, Spider对于多个动态参数的网站抓取,可能会陷入死循环。 • 5, Spider对于列表中前几页的新内容抓取可能不好。 • 6, Spider暂时还不能判断文章是不是原创的。
Spider的再次抓取更新策略
• Spider抓取一次网页,被分析索引并且参与排名后,并不是就不会被重新访 问了,因为搜索引擎抓取的信息存储在自己的服务器上,就需要和所访问的 网站保持信息的更新同步,因此Spider会根据一定策略对已抓取网页进行再 次访问。因为资源有限, Spider只会有针对性的访问网站。一般来说:用 户体验,历史更新频率,网页类型和网页权重,直接影响了再次访问抓取的 频率。
中文分词
• 分词是中文才有的技术,因为中文单一的字是没办法表达一个完整的意思的。 计算机没办法词把中文分为单个字来理解,所以需要引入分词技术。例如: 我是一个学生,就会被切分为:我|是|一个|学生。 • 1,基于词典匹配 • 2,基于统计
索引
• 搜索引擎使用的是倒排索引,就是以关键词为核心,进行内容匹配。 • 倒排索引中不仅仅记录了相应关键词文件的ID,还会记录关键词频率,每个 关键词对应的文件频率,以及关键词出现在文件中的位置等信息。这些信息 会在排名过程中分别进行加权处理,应用到最终的排名中去。
等待搜索。所以跟踪网页链接是搜索引擎蜘蛛(Spider)发现新网址的最基本的方法,所
以反向链接成为搜索引擎优化的最基本因素之一。搜索引擎抓取的页面文件与用户浏览器
得到的完全一样,抓取的文件存入数据库。
建立索引 蜘蛛抓取的页面文件分解、分析,并以巨大表格的形式存入数据库,这个过程即是 索引(index).在索引数据库中,网页文字内容,关键词出现的位置、字体、颜色、 加粗、斜体等相关信息都有相应记录。
Spider的分类
• 批量型: • 特点:具有明显的抓取范围和目标,时间设定,抓取数量有限,或者当达到目标就 会停止,这样的例子一般是我们的站长和优化人员使用的采集工具中的采集程序。 • 增量型: • 可以成为搜索引擎的网站或者程序,他们使用的都是增量型,他们的特点是没有固 定目标、范围和时间限制,会无休止的抓取,直到把所有的网站数据抓取为止,他 们一般不仅仅抓取尽可能全面的页面,同时还要对已经抓取的页面再次抓取直型: • 特点:只对特定的内容或者行业进行抓取,他具有增量型的部分特点,但是对于抓直型的。
爬行和抓取 搜索引擎派出一个能够在网上发现新网页并抓文件的程序,这个程序通常称之为蜘蛛 (Spider)。搜索引擎从已知的数据库出发,就像正常用户的浏览器一样访问这些网页并 抓取文件。搜索引擎通过这些爬虫去爬互联网上的外链,从这个网站爬到另一个网站,去 跟踪网页中的链接,访问更多的网页,这个过程就叫爬行。这些新的网址会被存入数据库
搜索引擎的内容处理、中文分词和索引
内容处理
• 1,判断页面类型,是普通网页还是各种格式的文件。 • 2,提取网页的文本信息。搜索引擎对于网页的索引还是以文本为主,还会 提取下网页的Title、Kewords、Description. • 3,去除页面噪音,去除广告、导航、链接、图片、登陆框、网站版权信息等 内容。只提取该网页的主体内容。甚至与页面不相干的链接文本也会被保留 索引。 • 4、去除内容中的停止词,对正文内容的处理,搜索引擎去除诸如:得、的、 啊、地、呀、却之类的停止词。 • 经过这些处理之后,抓取的内容就比较干净了,这样搜索引擎就会对有价值 的内容进行排序了。
重要页面和大站的优先抓取详解
• 1、如何界定页面的重要性,除了受到自己的主站质量和权重之外,就要看 看导入链接的数量和质量了。如果界定为重要页面,一般的抓取策略就会随 之改变,等待抓取的排序依据就会是:页面获得已抓取页面链接的多少和链 接权重的高低。总归 就是数量和质量。 • 2、大站一般是有稳定服务器,良好网站结构,优秀的用户体验,及时的咨 询内容,权威的相关资料,丰富的内容类别和庞大的网页数量等特征。一般 这样站点信息会被搜索引擎重点关注和抓取收录。
网页类型
• 一个网站有不同的网页类型,有着不同的更新频率, Spider的关注和抓取 的频率也会有所不同。同一个站点内:分为:首页、栏目页、专题页和内容 页,一般情况下,首页和栏目页都是Spider经常关顾的页面。根据专题页面 的时效性和特点, Spider可能会在一段时间内进行频繁抓取,时效性过后 就会降低频率,内容页可能在第一次抓取之后就基本不会再来
Spider的抓取认识
• Spider不会爬,不是根据链接爬到另一个网页来进行抓取的。他是首先抓取 一个网页,提取出来所有URL,同时记录和计算URL形式,他的位置,锚文 本,当前页面的所赋予的权重等信息,然后将这些地址合并抓取到列表中, 并且根据每个URL的值来进行抓取排序,spider就是不断根据这个url排序的 变化来抓取内容页面的。 • Spider的访问时单次访问,每次访问一个页面就会把页面信息抓取回来,不 是说一个小蜘蛛,到网站沿着链接爬行大量页面之后再返回。
搜索引擎的原理简述
搜索引擎的服务步骤