搜索引擎原理及发展趋势
搜索引擎的工作原理

搜索引擎的工作原理搜索引擎是一种用于在互联网上搜索信息的工具。
它通过采集、索引和排序互联网上的网页内容,为用户提供相关的搜索结果。
搜索引擎的工作原理可以简单地分为三个步骤:抓取网页、建立索引和提供搜索结果。
1. 抓取网页搜索引擎通过网络爬虫(也称为蜘蛛或者机器人)来抓取互联网上的网页。
网络爬虫会按照一定的规则从一个网页转到另一个网页,将网页的内容下载下来。
爬虫会根据网页中的链接不断地跳转到其他网页,形成一个爬行路径,以获取尽可能多的网页内容。
2. 建立索引抓取下来的网页内容会被搜索引擎进行处理和分析,以建立一个庞大的网页索引。
索引是一种结构化的数据存储方式,它会记录每一个网页的关键信息,如标题、摘要、URL和关键词等。
搜索引擎会对网页内容进行分词处理,将关键词和对应的网页进行关联。
这样,当用户搜索关键词时,搜索引擎可以快速地找到相关的网页。
3. 提供搜索结果当用户输入关键词进行搜索时,搜索引擎会根据用户的需求从建立的索引中匹配相关的网页。
搜索引擎会根据一系列的算法,对匹配的网页进行排序,并将最相关的网页展示给用户。
排序算法会考虑多个因素,如关键词的浮现频率、网页的权重和链接的质量等。
搜索引擎还会提供一些搜索结果的过滤选项,如时间范围、文件类型和地域等,以满足用户的个性化需求。
搜索引擎的工作原理虽然看似简单,但实际上暗地里涉及了复杂的技术和算法。
为了提高搜索结果的质量和准确性,搜索引擎公司会不断地改进和优化搜索引擎的工作原理。
他们会利用机器学习和人工智能等技术,不断提升搜索引擎的智能化水平,以更好地满足用户的搜索需求。
搜索引擎的基本原理

搜索引擎的基本原理
搜索引擎是一种能够帮助用户在互联网上查找信息的工具,它的基本原理是通过自动化程序(爬虫)收集互联网上的信息并建立索引,然后通过算法对这些索引进行排序,最终呈现给用户相关的搜索结果。
搜索引擎的基本原理包括爬虫抓取、索引建立和搜索算法三个方面。
首先,爬虫是搜索引擎的基础,它是一种自动化程序,能够按照一定规则在互联网上抓取网页信息。
爬虫会从一个初始的网页开始,然后根据网页上的链接逐步抓取其他网页,形成一个网页的网络。
在抓取网页的过程中,爬虫会解析网页的内容,提取出其中的文本信息、链接和其他相关数据,然后将这些数据传输给搜索引擎的服务器。
其次,索引建立是搜索引擎的核心工作之一。
搜索引擎会将爬虫抓取到的网页内容进行处理,提取出其中的关键词和相关信息,并建立相应的索引。
这个索引包含了大量网页的关键词和其在网页中的位置,这样当用户输入搜索关键词时,搜索引擎就可以通过索引快速地找到相关的网页。
最后,搜索算法是搜索引擎的关键。
搜索引擎会根据用户输入的搜索关键词,通过搜索算法对建立好的索引进行排序,将最相关的网页展示给用户。
搜索算法会考虑多种因素,如关键词的匹配程度、网页的权重、用户的搜索历史等,来确定网页的排名顺序,以此提供用户最符合需求的搜索结果。
总的来说,搜索引擎的基本原理是通过爬虫抓取网页信息,建立索引,再通过搜索算法对索引进行排序,最终呈现给用户相关的搜索结果。
这一过程需要涉及到大量的计算和数据处理,而搜索引擎的不断优化和改进也是一个持续的过程,以满足用户不断变化的搜索需求。
搜索引擎百科

搜索引擎百科搜索引擎是互联网时代的重要工具,它们通过收集、整理和展示网页信息,帮助用户高效地查找需要的内容。
本文将介绍搜索引擎的定义、发展历程、工作原理以及对社会的影响。
一、定义搜索引擎是一种互联网技术,通过建立全球性的网络索引库,实现对互联网上信息的搜索、索引和呈现。
搜索引擎的目标是根据用户提供的关键词,展示与之相关的网页。
二、发展历程1. 早期搜索引擎早期的搜索引擎如Archie、Gopher等,主要用于检索FTP和存档文件。
随着互联网的迅速发展,研究人员迎来了一个新的挑战,即如何有效地搜索和组织海量互联网信息。
2. 首批商业搜索引擎1990年代中后期,一些商业搜索引擎如AltaVista、Yahoo!等相继出现。
它们通过机器人抓取网页内容,并建立索引库,用户可以通过关键词搜索获取信息。
3. 谷歌的崛起1998年,谷歌成立,通过创新的PageRank算法,提供了更准确和高效的搜索结果。
谷歌的成功经验在于不仅仅关注关键词匹配度,还注重网页的权威性和链接质量,提供更有价值的搜索结果。
4. 移动搜索的兴起随着智能手机的普及,移动搜索成为新的趋势。
谷歌、百度等搜索引擎都推出了移动搜索应用,为用户提供随时随地的信息检索能力。
三、工作原理1. 爬虫抓取搜索引擎使用网络爬虫,也称为蜘蛛或机器人,自动访问网页并抓取页面内容。
爬虫根据链接关系进行遍历,将抓取到的页面存储到索引库中。
2. 索引建立搜索引擎通过建立索引,将抓取到的网页内容进行组织和存储。
索引通常包括网页标题、URL、正文内容等关键信息,以方便后续的搜索和检索。
3. 检索与排序当用户输入关键词进行搜索时,搜索引擎会根据建立好的索引库进行匹配,并根据一定的排序算法,将相关度较高的网页展示给用户。
常用的排序算法包括PageRank、TF-IDF等。
四、对社会的影响1. 信息检索便利搜索引擎解决了信息过载的问题,使得用户能够快速地找到所需信息。
无论是学术研究、生活服务还是娱乐信息,都可以通过搜索引擎轻松获取。
网络搜索引擎原理及未来发展趋势

摘要本文比较详细地介绍了互联网搜索引擎的概念、发展历史、工作原理和未来趋势。
先从工作流程的角度解释了搜索引擎实现机制,通俗地概括为预处理和提供查询服务,描绘了整个技术构成易于理解的概览图。
接着对各个分支模块,包括爬虫、分布式文件系统、索引和排序规则展开详细论述,然后以实践经验为指导,分析了各个模块的改进设计。
本文内容是以搜索引擎理论研究为主,并对未来搜索引擎的智能化、个性化发展趋势做了详细的介绍。
本文对于从事网络技术开发、信息检索技术和数据挖掘研究都有一定的参考意义。
关键词搜索引擎;体系结构;发展趋势AbstractIn this paper, a more detailed introduction of the Internet search engine’s development history, theory and technology was presented. Start with the perspective of workflow explained the mechanism for implementing a web search engine, which is summarized as pretreatment and web services. It can be divided as spider, distributed file system, indexing and ranking rules. Further more, I put forward my own opinion of ranking algorithm improvement. Meanwhile, I explained the search engine architecture design principles and a comparative analysis of other possible design options. Because of strict logical ratiocination and abundant experimental data, it’s fit for variety of readers. And intelligent, personalized trend of search engine development are described in detail. It is a good reference for Information Retrieval and Data Mining research and web search engine development.Key wordsSearch engine;architecture; development trend目录摘要 (1)Abstract (2)前言 (5)第一章网络搜索引擎的产生.................................................................. 错误!未定义书签。
百度搜索引擎的原理

百度搜索引擎的原理
百度搜索引擎是基于信息检索的技术原理进行工作的。
其核心原理主要分为网页爬取、网页索引和查询处理三个步骤。
首先,百度搜索引擎会使用爬虫程序自动收集互联网上的网页内容。
这些爬虫会从互联网上的一个个链接开始,逐个地访问网页并将其内容保存下来。
爬虫会遵循页面中的链接跳转到其他网页继续爬取。
通过这种方式,百度搜索引擎可以获取到大量的网页信息。
接下来,百度会对这些爬取到的网页进行索引。
索引是一个巨大的数据库,其中包含了所有爬取到的网页的信息。
为了提高检索效率,百度会对网页的文本内容进行处理和分析,提取出其中的关键词和主题。
这些关键词和主题会用作后续搜索的关键参数。
同时,百度还会记录网页的URL链接和其他相关信息,以便用户在搜索时能够快速找到。
最后,当用户在百度搜索框中输入关键词并提交时,百度会调用查询处理程序来处理用户的搜索请求。
查询处理程序会根据用户输入的关键词,在索引中寻找与之相关的网页信息。
百度会对这些网页进行排序,将与关键词相关性较高的网页排在前面。
同时,根据用户的搜索历史、位置和其他个人信息,百度还会提供个性化的搜索结果。
总结起来,百度搜索引擎的原理包括网页爬取、网页索引和查询处理三个步骤。
通过自动爬取网页内容并进行处理和索引,百度能够提供用户相关、准确的搜索结果。
搜索引擎技术原理

搜索引擎技术原理搜索引擎已成为我们日常生活中获取信息的重要工具。
但是,你是否曾经想过搜索引擎是如何工作的?究竟是什么原理使得它们能够从海量的信息中准确地找到我们想要的答案呢?本文将介绍搜索引擎技术的原理和运行机制。
一、爬虫机制搜索引擎的第一步是通过爬虫机制来收集互联网上的网页。
爬虫是一种自动化程序,它依靠链接在不同网页之间进行跳转,并将这些网页的内容下载下来。
爬虫程序从一个种子URL(初始的网页链接)开始,通过解析网页上的链接,不断地深入抓取,并将抓取到的网页放入索引队列中。
二、索引机制索引是搜索引擎的核心组成部分。
一旦爬虫程序抓取到网页内容,它会将网页交给索引程序进行处理。
索引程序会解析网页的HTML源代码,提取出关键信息,如标题、正文、链接等。
然后,索引程序将这些信息存储在数据库中,以便后续的搜索操作。
为了提高搜索效率,索引程序会对网页进行分词和倒排索引的处理。
分词是将网页内容按照一定规则进行拆分,形成词语的序列。
倒排索引是将词语与包含该词语的网页进行关联,形成一个词典。
这样,当用户输入关键词进行搜索时,搜索引擎可以快速地找到含有这些关键词的网页。
三、查询匹配机制查询匹配是指将用户输入的查询语句与索引中存储的网页信息进行匹配,找到最相关的结果并进行排序。
当用户输入查询语句后,搜索引擎会对查询语句进行分词处理,并根据词语在倒排索引中的关联情况,找到包含这些词语的网页。
为了提高搜索结果的准确性,搜索引擎会使用一系列的算法和技术进行结果排名。
其中,最常用的是PageRank算法。
PageRank算法将网页的重要性视作一个数值,并根据网页之间的链接关系来计算这个数值。
具有更高PageRank值的网页在搜索结果中排名更靠前。
四、结果展示机制最后,搜索引擎将匹配到的搜索结果呈现给用户。
搜索结果页面常用的展示方式是将相关网页的标题、摘要和链接显示在结果列表中。
为了方便用户快速判断和点击,搜索引擎还会提供相关搜索建议、相关搜索词和翻页功能等。
搜索引擎的工作原理

搜索引擎的工作原理搜索引擎是一种用于从互联网上获取信息的工具,它通过采集、索引和排序网页来提供用户所需的搜索结果。
搜索引擎的工作原理可以分为以下几个步骤:网页抓取、网页索引和搜索结果排序。
1. 网页抓取:搜索引擎通过网络爬虫程序(也称为蜘蛛、机器人)从互联网上抓取网页。
网络爬虫会按照一定的规则自动遍历互联网上的网页,并将抓取到的网页内容保存在搜索引擎的数据库中。
爬虫程序会从一个初始网页开始,然后通过网页中的链接逐步遍历其他网页,形成一个庞大的网页索引。
2. 网页索引:网页索引是搜索引擎的核心组成部份,它是一个包含大量网页信息的数据库。
搜索引擎会对抓取到的网页进行处理,提取出网页的关键词和其他相关信息,并将这些信息存储在索引中。
索引的目的是为了加快搜索引擎的检索速度和准确性。
当用户输入关键词进行搜索时,搜索引擎会根据索引中的信息进行匹配,找到与关键词相关的网页。
3. 搜索结果排序:当用户输入关键词进行搜索后,搜索引擎会根据一定的算法对索引中的网页进行排序,以便将最相关的网页展示给用户。
搜索引擎的排序算法通常会考虑多个因素,如关键词的匹配程度、网页的权威性和用户的搜索习惯等。
通过不断优化算法,搜索引擎可以提供更准确、相关的搜索结果。
除了以上的基本工作原理,搜索引擎还会根据用户的搜索行为和反馈信息进行改进和优化。
例如,搜索引擎会记录用户的搜索历史和点击行为,以便更好地理解用户的需求,并根据用户的反馈信息对搜索结果进行调整。
总结起来,搜索引擎的工作原理主要包括网页抓取、网页索引和搜索结果排序。
通过不断优化算法和采集用户反馈,搜索引擎可以提供更准确、相关的搜索结果,匡助用户快速获取所需的信息。
AI智能搜索引擎

AI智能搜索引擎随着信息技术的飞速发展,人们的信息获取需求也越来越迫切。
以前,我们可能需要花费大量时间和精力在图书馆、书店等地寻找所需的信息。
然而,现在有了AI智能搜索引擎,我们可以在短短几秒钟内获得关于几乎任何话题的大量信息。
本文将介绍AI智能搜索引擎的作用、工作原理以及发展前景。
一、AI智能搜索引擎的作用AI智能搜索引擎以其高效、准确的搜索结果,为人们提供了极大的便利。
不管是求职者寻找相关职位信息,学生们查找学术论文,还是企业家需要市场调研资料,都可以通过这些搜索引擎快速找到所需的信息。
同时,智能搜索引擎融合了机器学习和自然语言处理等技术,还能根据用户的搜索历史和兴趣偏好,为用户提供个性化的搜索结果,提高信息获取的效率和准确性。
二、AI智能搜索引擎的工作原理1.信息爬取与索引AI智能搜索引擎首先会通过网络爬虫程序,抓取互联网上的信息。
这些爬虫会按照一定的规则访问网页并提取有用的信息,然后将这些信息进行处理和整理,建立索引。
索引是智能搜索引擎的核心部分,它类似于一本巨大的目录,记录了收集到的信息和相关的关键词。
2.检索与排名当用户输入关键词进行搜索时,智能搜索引擎会根据建立的索引,检索与关键词相关的信息。
这个过程涉及到大量的计算和算法,它会根据关键词的相关性、信息的权威性和用户的搜索历史等因素,为用户提供最符合需求的搜索结果。
而这些算法又是不断迭代和完善的,以提供更加准确和个性化的检索服务。
三、AI智能搜索引擎的发展前景随着人工智能技术的发展,AI智能搜索引擎将会越来越智能化和贴合用户需求。
以下是该领域未来的几个发展趋势:1.语义理解能力的提升当前的搜索引擎主要依赖关键词匹配,但由于同一个关键词可能有不同的语义,搜索结果的准确性还有待提高。
未来,AI智能搜索引擎将加强对用户查询意图的理解,借助自然语言处理和深度学习等技术,更精准地呈现搜索结果。
2.图像和音频搜索的发展随着图像和音频数据的爆发式增长,人们对于图像和音频搜索的需求越来越迫切。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
南昌航空大学Nanchang Hangkong University毕业论文题目 _搜索引擎原理及发展趋势__________________学院 _江西工业工程职业学校 _____________________专业 __________计算机网络________________________姓名周文飞___________学号************指导老师李国忠______________职称________________1__2012__年_5__月_5_ 日_目录第一章搜索引擎的概述 3 1.1 搜索引擎3 1.2 搜索引擎的发展史3第二章搜索引擎基本常识9 2.1 搜索引擎工作原理9 2.2 搜索引擎分类9 2.3 全文搜索引擎10第三章使用搜索引擎的一些基本规则和技巧12 3.1 搜索引擎的一些基本规则12 3.2 搜索引擎的一些基本技巧12第四章搜索引擎的评测16 4.1搜索引擎缺陷16 4.2搜索速度16第五章搜索引擎的未来发展动向及趋势18 5.1搜索引擎的未来发展动向18 5.2搜索引擎趋势19 结束语23致谢24参考文献252第一章搜索引擎的概述1.1 搜索引擎搜索引擎是指根据一定的策略、运用特定的计算机程序从互联网上搜集信息,在对信息进行组织和处理后,为用户提供检索服务,将用户检索相关的信息展示给用户的系统。
搜索引擎包括全文索引、目录索引、元搜索引擎、垂直搜索引擎、集合式搜索引擎、门户搜索引擎与免费链接列表等。
百度和谷歌等是搜索引擎的代表。
搜索引擎是指根据一定的策略、运用特定的计算机程序从互联网上搜集信息,在对信息进行组织和处理后,为用户提供检索服务,将用户检索相关的信息展示给用户的系统。
搜索引擎包括全文索引、目录索引、元搜索引擎、垂直搜索引擎、集合式搜索引擎、门户搜索引擎与免费链接列表等。
百度和谷歌等是搜索引擎的代表。
1.2搜索引擎的发展史互联网发展早期,以雅虎为代表的网站分类目录查询非常流行。
网站分类目录由人工整理维护,精选互联网上的优秀网站,并简要描述,分类放置到不同目录下。
用户查询时,通过一层层的点击来查找自己想找的网站。
也有人把这种基于目录的检索服务网站称为搜索引擎,但从严格意义上讲,它并不是搜索引擎。
1990年,加拿大麦吉尔大学(University of McGill)计算机学院的师生开发出Archie。
当时,万维网(World Wide Web)还没有出现,人们通过FTP来共享交流资源。
Archie能定期搜集并分析FTP服务器上的文件名信息,提供查找分别在各个FTP主机中的文件。
用户必须输入精确的文件名进行搜索,Archie告诉用户哪个FTP服务器能下载该文件。
虽然Archie搜集的信息资源不是网页(HTML文件),但和搜索引擎的基本工作方式是一样的:自动搜集信息资源、建立索引、提供检索服务。
所以,Archie被公认为现代搜索引擎的鼻祖。
起源所有搜索引擎的祖先,是1990年由Montreal的McGill University三名学生(Alan Emtage、Peter Deutsch、Bill Wheelan)发明的Archie(Archie FAQ)。
Alan Emtage等想到了开发一个可以用文件名查找文件的系统,于是便有了Archie。
Archie是第一个自动索引互联网上匿名FTP网站文件的程序,但它还不是真正的搜索引擎。
Archie是一个可搜索的FTP文件名列表,用户必须输入精确的文件名搜索,然后Archie会告诉用户哪一个FTP地址可以下载该文件。
由于Archie深受欢迎,受其启发,Nevada System Computing Services大学于1993年开发了一个Gopher(Gopher FAQ)搜索工具Veronica(Veronica FAQ)。
Jughead是后来另一个Gopher搜索工具。
3发展(1)Excite 的历史可以上溯到1993年2月,6个Stanford University(斯坦福大学)大学生的想法是分析字词关系,以对互联网上的大量信息作更有效的检索。
到1993年中,这已是一个完全投资项目,他们还发布了一个供webmasters在自己网站上使用的搜索软件版本,后来被叫做Excite for Web Servers。
注:Excite后来曾以概念搜索闻名,2002年5月,被Infospace收购的Excite停止自己的搜索引擎,改用元搜索引擎Dogpile发展(2)1994年4月,斯坦福大学的两名博士生,美籍华人杨致远和David Filo 共同创办了Yahoo!。
随着访问量和收录链接数的增长,Yahoo目录开始支持简单的数据库搜索。
因为Yahoo!的数据是手工输入的,所以不能真正被归为搜索引擎,事实上只是一个可搜索的目录。
Yahoo!中收录的网站,因为都附有简介信息,所以搜索效率明显提高。
注:Yahoo以后陆续有Altavista、Inktomi、Google提供搜索引擎服务Yahoo!--几乎成为20世纪90年代的因特网的代名词。
发展(3)1995年,一种新的搜索引擎形式出现了——元搜索引擎(Meta Search Engine)。
用户只需提交一次搜索请求,由元搜索引擎负责转换处理后提交给多个预先选定的独立搜索引擎,并将从各独立搜索引擎返回的所有查询结果,集中起来处理后再返回给用户。
第一个元搜索引擎,是Washington大学硕士生Eric Selberg 和Oren Etzioni 的Metacrawler。
元搜索引擎概念上非常好听,但搜索效果始终不理想,所以没有哪个元搜索引擎有过强势地位。
发展(4)智能检索的产生:它利用分词词典、同义词典,同音词典改善检索效果,进一步还可在知识层面或者说概念层面上辅助查询,通过主题词典、上下位词典、相关同级词典检索处理形成一个知识体系或概念网络,给予用户智能知识提示,最终帮助用户获得最佳的检索效果。
例:(1)查询“计算机”,与“电脑”相关的信息也能检索出来;(2)可以进一步缩小查询范围至“微机”、“服务器”或扩大查询至“信息技术”或查询相关的“电子技术”、“软件”、“计算机应用”等范畴;(3)还包括歧义信息和检索处理,如“苹果”,究竟是指水果还是电脑品牌,“华人”与“中华人民共和国”的区分,将通过歧义知识描述库、全文索引、用户检索上下文分析以及用户相关性反馈等技术结合处理,高效、准确地反馈给用户最需要的信息。
发展(5)个性化趋势是搜索引擎的一个未来发展的重要特征和必然趋势之一。
一种方式通过搜索引擎的社区化产品(即对注册用户提供服务)的方式来组织个人信息,然后在搜索引擎基础信息库的检索中引入个人因素进行分析,获得针对个人不同的搜索结果。
自2004年10月yahoo推出myweb测4试版,到11月a9推出个性化功能,到2005年Googlesearchhistory基本上都沿着一条路子走,分析特定用户的搜索需求限定的范围,然后按照用户需求范围扩展到互联网上其他的同类网站给出最相关的结果。
另外一种是针对大众化的,Google个性化搜索引擎,或者yahooMindSet,或者我们都知道的前台聚类的vivisimo。
但是无论其中的哪一种实现方式,即Google 的主动选择搜索范围,还是yahoo,vivisimo的在结果中重新组织自己需要的信息,都是一种实验或者创想,短期内无法成为主流的搜索引擎应用产品。
发展(6)网格技术(great global grid):由于没有统一的信息组织标准对网络信息资源进行加工处理,难以对无序的网络信息资源进行检索、交接和共享乃至深层次的开发利用,形成信息孤岛。
网格技术就是要消除信息孤岛实现互联网上所有资源的全面连通。
国全球信息网格(Global Information Grid)Robot(机器人)一词对编程者有特殊的意义。
Computer Robot是指某个能以人类无法达到的速度不断重复执行某项任务的自动程序。
由于专门用于检索信息的Robot程序像蜘蛛(spider)一样在网络间爬来爬去,因此,搜索引擎的Robot程序被称为spider程序。
1993年Matthew Gray开发了World Wide Web Wanderer,这是第一个利用HTML网页之间的链接关系来检测万维网规模的“机器人(Robot)”程序。
开始,它仅仅用来统计互联网上的服务器数量,后来也能够捕获网址(URL)。
1994年4月,斯坦福大学(Stanford University)的两名博士生,美籍华人Jerry Yang(杨致远)和David Filo共同创办了Yahoo。
随着访问量和收录链接数的增长,Yahoo目录开始支持简单的数据库搜索。
因为Yahoo!的数据是手工输入的,所以不能真正被归为搜索引擎,事实上只是一个可搜索的目录。
雅虎于2002年12月23日收购inktomi,2003年7月14日收购包括Fast和Altavista在内的Overture,2003年11月,Yahoo全资收购3721公司。
1994年初,华盛顿大学(University of Washington )的学生Brian Pinkerton开始了他的小项目WebCrawler。
1994年4月20日,WebCrawler 正式亮相时仅包含来自6000个服务器的内容。
WebCrawler是互联网上第一个支持搜索文件全部文字的全文搜索引擎,在它之前,用户只能通过URL 和摘要搜索,摘要一般来自人工评论或程序自动取正文的前100个字。
1994年7月,卡内基·梅隆大学(Carnegie Mellon University)的Michael Mauldin将John Leavitt的spider程序接入到其索引程序中,创建了Lycos。
除了相关性排序外,Lycos还提供了前缀匹配和字符相近限制,Lycos第一个在搜索结果中使用了网页自动摘要,而最大的优势还是它远胜过其它搜5。