Lucene:基于Java的全文检索引擎简介

合集下载

lucene 基本概念

lucene 基本概念

lucene 基本概念Lucene 基本概念Lucene 是一个开源的全文搜索引擎库,被广泛地应用于高性能搜索和索引任务中。

它是 Apache 软件基金会的一个开源项目,并且被许多知名的商业产品使用。

本文将通过一步一步的方式,来介绍 Lucene 的基本概念和其原理。

一、Lucene 是什么?Lucene 是一个基于 Java 的全文搜索引擎库。

它提供了一系列的 API 和工具,用于创建、维护和搜索大规模文本数据集。

通过将文本数据索引到 Lucene 的索引库中,我们可以快速地进行全文搜索、排序和过滤等操作。

二、Lucene 的基本原理1. 倒排索引倒排索引是 Lucene 的核心概念之一。

它是一种数据结构,用于从词项到文档的映射。

通常,我们将文本数据分割成单词,然后对每个词项构建一个索引条目,该条目指向包含该词项的文档。

例如,假设我们有三个文档:文档1 包含 "Lucene 是一个搜索引擎库",文档2 包含 "Apache Lucene 是一个全文搜索库",文档3 包含 "Lucene 是基于 Java 的"。

在倒排索引中,我们将按照词项构建索引,如下所示:词项文档Lucene 1, 2, 3是 1, 2, 3一个 1, 2, 3搜索引擎库 1全文搜索库 2基于 3Java 3倒排索引的优势在于它能够快速地确定包含特定词项的文档,并且支持更复杂的查询表达式。

2. 分词器分词器是将原始文本分割成词项的模块。

Lucene 提供了多种分词器,如标准分词器、简单分词器等。

分词器还可以根据具体的需求进行定制。

分词器在构建索引和搜索时起到关键作用,它们确保在索引和搜索阶段都使用相同的分词规则。

3. 文档和字段在 Lucene 中,文档是一个最小的索引单位。

它由多个字段组成,每个字段包含一个词项或多个词项。

字段可以是文本、数值或日期等不同类型。

Lucene 中的文档和字段的设计灵活,可以根据实际需求进行定义和修改。

Lucene简介(共36张)

Lucene简介(共36张)

不做索引,用于存放不搜索的内容
Index.TOKENIZED 分词索引,用于存放可搜索的内容
Index.UM_TOKENIZED
不分词索引,用于存放ID
18
第18页,共36页。
Field示例(shìlì)
public static Document getDocument(Info info){ Document document = new Document(); Field field = null;
分词组件(Tokenizer)
1、将文档分成一个一个单独的单词。 2、去除标点符号。 3、去除停词(Stop word)。
词元(Token) 经过分词(Tokenizer)后得到的结果称为词元(Token)
倒排(Posting List)链表 1、Document Frequency 即文档频次,表示总共有多少文件包含此词(Term)。 2、Frequency 即词频率,表示此文件中包含了几个此词(Term)。
一个高效的,可扩展的,全文检索库。 全部用Java实现,无须配置 。
仅支持纯文本文件的索引(Indexing)和搜索(Search)。 不负责由其他格式的文件抽取纯文本文件,或从网络中抓取文件的过
程.
Mr. Ajax
8 第8页,共36页。
Lucene的总体(zǒngtǐ)架构
9 第9页,共36页。
4、域(Field):
a、一篇文档包含不同类型的信息,可以分开索引,比如标题,时间,正文,作者 等,都可以保存在不同的域里。 b、不同域的索引方式可以不同
5、词(Term):
词是索引的最小单位,是经过词法分析和语言处理后的字符串。
16àn):Lucene

javalucene用法

javalucene用法

javalucene用法JavaLucene是一个用于全文检索的开源库,它提供了一个高效且可扩展的搜索引擎。

它基于Apache Lucene项目,并提供了Java编程语言的接口和实现。

使用JavaLucene,我们可以创建索引并搜索包括文本、数字、日期等数据类型的文档。

下面是一些常见的JavaLucene用法:1.创建索引:首先,我们需要创建一个用于存储索引的目录。

然后,我们可以使用IndexWriter类将文档添加到索引中。

每个文档包含一个或多个字段,我们可以指定字段的类型和分析方式。

分析器负责将文本分成单词,并对它们进行规范化和标准化,以便更好地进行搜索。

2.搜索:我们使用IndexSearcher类来执行搜索操作。

可以使用QueryParser类解析查询字符串,并将其转换为查询对象。

查询可以是简单的词语匹配、范围查询、模糊查询等。

搜索结果以文档的形式返回,我们可以根据需要对其进行排序、过滤等操作。

3.更新索引:如果需要对索引进行更新,例如添加新的文档或删除现有的文档,我们可以使用IndexWriter类来执行这些操作。

之后,我们需要使用IndexReader类来重新打开索引以获取最新的结果。

拓展:除了基本的索引和搜索功能,JavaLucene还提供了其他一些强大的功能:1.高级搜索:JavaLucene支持布尔搜索、通配符搜索、模糊搜索、模糊匹配、短语搜索等。

这些功能可以帮助我们更准确地定位所需的结果。

2.高亮显示:JavaLucene可以通过标记匹配结果中的关键词并进行高亮显示来改善用户体验。

这对于搜索结果的展示非常有帮助。

3.分布式搜索:JavaLucene可以与其他工具配合使用,如Apache Solr和Elasticsearch,进行分布式搜索。

这允许我们搭建具有高可用性和可扩展性的搜索引擎。

4.自定义扩展:JavaLucene允许用户通过实现自定义的分析器、查询解析器、评分算法等来扩展其功能。

Lucene简介

Lucene简介

在应用中加入全文检索功能——基于Java的全文索引引擎Lucene简介作者:车东 Email: /写于:2002/08 最后更新:09/09/2006 17:09:05Feed Back >> (Read this before you ask question)版权声明:可以任意转载,转载时请务必以超链接形式标明文章原始出处和作者信息及本声明/tech/lucene.html关键词:Lucene java full-text search engine Chinese word segment内容摘要:Lucene是一个基于Java的全文索引工具包。

1.基于Java的全文索引引擎Lucene简介:关于作者和Lucene的历史2.全文检索的实现:Luene全文索引和数据库索引的比较3.中文切分词机制简介:基于词库和自动切分词算法的比较4.具体的安装和使用简介:系统结构介绍和演示5.Hacking Lucene:简化的查询分析器,删除的实现,定制的排序,应用接口的扩展6.从Lucene我们还可以学到什么基于Java的全文索引/检索引擎——LuceneLucene不是一个完整的全文索引应用,而是是一个用Java写的全文索引引擎工具包,它可以方便的嵌入到各种应用中实现针对应用的全文索引/检索功能。

Lucene的作者:Lucene的贡献者Doug Cutting是一位资深全文索引/检索专家,曾经是V-Twin搜索引擎(Apple的Copland操作系统的成就之一)的主要开发者,后在Excite担任高级系统架构设计师,目前从事于一些INTERNET底层架构的研究。

他贡献出的Lucene的目标是为各种中小型应用程序加入全文检索功能。

Lucene的发展历程:早先发布在作者自己的,后来发布在SourceForge,2001年年底成为APACHE基金会jakarta的一个子项目:/lucene/已经有很多Java项目都使用了Lucene作为其后台的全文索引引擎,比较著名的有:Jive:WEB论坛系统;∙Eyebrows:邮件列表HTML归档/浏览/查询系统,本文的主要参考文档“TheLucene search engine: Powerful, flexible, and free”作者就是EyeBrows系统的主要开发者之一,而EyeBrows已经成为目前APACHE项目的主要邮件列表归档系统。

lucene简介原理及实践(共48张)

lucene简介原理及实践(共48张)
第17页,共48页。
Analyzer
在一个文档被索引之前,首先需要对文档内容进行分词处理, 并且而剔除一些冗余的词句(例如:a,the,they等),这部分工作
就是由 Analyzer 来做的。
Analyzer 类是一个抽象类,它有多个实现。
BrazilianAnalyzer, ChineseAnalyzer, CJKAnalyzer, CzechAnalyzer, DutchAnalyzer, FrenchAnalyzer, GermanAnalyzer, GreekAnalyzer, KeywordAnalyzer, PatternAnalyzer, PerFieldAnalyzerWrapper, RussianAnalyzer, SimpleAnalyzer, SnowballAnalyzer, StandardAnalyzer, StopAnalyzer, ThaiAnalyzer, WhitespaceAnalyzer
通过实现特定API,完成文档建立索引的工 作
第7页,共48页。
Lucene搜索机制-B 基于(jīyú)索引搜索
Lucene通过特定的类,可以对索引进行操 作
通过特定的类,封装搜索结果,供应用程 序处理
第8页,共48页。
Lucene系统结构
第9页,共48页。
Lucene包结构(jiégòu)功能表
第19页,共48页。
Field
Field 对象(duìxiàng)是用来描述一个文档的某个属性的,比如一封电子邮件的标 题和内容可以用两个 Field 对象分别描述。
Field(String name, byte[] value, Field.Store store) Create a stored field with binary value.

lucene索引简单介绍 索引介绍

lucene索引简单介绍  索引介绍


Lucene索引index由若干段(segment)组成,每一段由若干的 文档(document)组成,每一个文档由若干的域(field)组成, 每一个域由若干的项(term)组成。 域是一个关联的元组,由一个域名和一个域值组成,域名是一 个字串,域值是一个项,比如将“标题”和实际标题的项组成 的域 项是最小的索引概念单位,它直接代表了一个字符串以及其 在文件中的位置、出现次数等信息。

以上就是lucene索引结构中最核心的部分。我们注意到关键 字是按字符顺序排列的(lucene没有使用B树结构),因此 lucene可以用二元搜索算法快速定位关键词。 实现时 lucene将上面三列分别作为词典文件(Term Dictionary)、频率文件(frequencies)、位置文件 (positions)保存。其中词典文件不仅保存有每个关键词, 还保留了指向频率文件和位置文件的指针,通过指针可以找 到该关键字的频率信息和位置信息。

Lucene生成的三类文件:*.cfs,*.gen, segment_N

segments_N文件存储当前最新索引片段的信息,其中N为其最新修改版本 segments.gen存储当前版本即N值 *.cfs是有下边的文件合成的:
_21.f1,_21.f2,依次类推,扩展名根据文件排序; _21.fdt; _21.fdx; *.fdt和*.fdx构成了域值存储表; _21.fnm; 记录了域集合信息; _21.frq; 记录了项的位置; _21.prx; 记录了项频数; _21.tii; _21.tis; *.tii和*.tis构成了项字典; segment1.nrm 记录了标准化因子; segment1.del 记录了本删除的文档; segments(无扩展名) 用来保存所有的段的记录; deletable(无扩展名) 用来保存已删除文件的记录 lock(无扩展名) 用来控制读写的同步

21款开源搜索引擎项目介绍

21款开源搜索引擎项目介绍

21款开源搜索引擎项目介绍搜索引擎的主流语言是Java,要研究和开发搜索引擎,最好从Lucene开始,下面介绍一些开源搜索引擎系统,包含开源Web搜索引擎和开源桌面搜索引擎。

Lucene一个全文搜索引擎工具包,但只支持文本文件以及少量语种的索引;通过Lucene提供的接口,我们可以自己开发具体语言的分词器,针对具体文档的文本解析器等;Lucene是索引数据结构事实上的标准;Apache Lucene是一个基于Java全文搜索引擎,利用它可以轻易地为Java软件加入全文搜寻功能。

Lucene的最主要工作是替文件的每一个字作索引,索引让搜寻的效率比传统的逐字比较大大提高,Lucen提供一组解读,过滤,分析文件,编排和使用索引的API,它的强大之处除了高效和简单外,是最重要的是使使用者可以随时应自已需要自订其功能。

Sphider Sphider是一个轻量级,采用PHP开发的web spider和搜索引擎,使用mysql来存储数据。

可以利用它来为自己的网站添加搜索功能。

Sphider非常小,易于安装和修改,已经有数千网站在使用它。

RiSearch PHPRiSearch PHP是一个高效,功能强大的搜索引擎,特别适用于中小型网站。

RiSearch PHP非常快,它能够在不到1秒钟内搜索5000-10000个页面。

RiSearch是一个索引搜索引擎,这就意味着它先将你的网站做索引并建立一个数据库来存储你网站所有页面的关键词以便快速搜索。

Risearch是全文搜索引擎脚本,它把所有的关键词都编成一个文档索引除了配置文件里面的定义排除的关键词。

RiSearch使用经典的反向索引算法(与大型的搜索引擎相同),这就是为什么它会比其它搜索引擎快的原因。

Xapian使用C++编写,提供绑定程序使得其他语言能够方便地使用它;便于进行二次开发PhpDigPhpDig是一个采用PHP开发的Web爬虫和搜索引擎。

通过对动态和静态页面进行索引建立一个词汇表。

对基于Java的全文检索工具包lucene的索引研究

对基于Java的全文检索工具包lucene的索引研究
了 比较 深 入 的 研 究 。
关 键 词 Jv aa
中图 分类 号
L cn ue e
倒排 索 5 索 引 机制 I
文献 标识 码 B
索 引 文件
索 引性 能
T 31 .6 P 15
文章 编 号 :0 2 2 2 2 0 0 _ o 5 0 1 0 — 4 2( 0 7) 2 o 4 - 2
维普资讯
27 0 年4月 0
电 脑 学 习
第2 期
对基于Jv 的全文检索工具包 lcn 的索引研究 aa uee
陆 云’
摘 要 详 细 介 绍 了 L cn ue e的倒 排 索 引原 理 。 识 了 索 引 机 制 架构 和典 型 的 索 5 文件 操 作 。 如 何 提 高 索 引的 性 能 进 行 认 I 对
文 章 号” 。文 章 1 2经 过 倒 排 后 变 成 : ,
关 键 词 文 章 号
gaghu 1 un zo h e

L en 是 一 个 基 于 Jv 的 全 文 检 索 工 具 包 , uee u ee aa L en
使用 的是倒排文件索 引结构 。我们通过 一个简单 的例 子来 认 识一 下该 结构。 ( )设有两篇 文章 1和 2 文章 1的内容为 :o ie 1 : Tm l s v
处理 。
图1 显示 了 L en 的索 引机 制的架构 。 uee
② 文章中的 o Qn o i ,Un e o等词没有 什么实 际意 义, n t
中文 中的 的 是 等字通常也无具 体含义 , 这些不代 表概念 的词可 以过滤掉 。标 点符 号也滤掉 。
⑨ 所有单 词需要统一大小写。 ④ 用户通 常希望 查” v le 时,需要把 i s,l e 原 i le” i d还 v v
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

版权声明:可以任意转载,转载时请务必以超链接形式标明文章原始出处和作者信息及本声明。

/tech/lucene.html-------------------------------------------------------------------------------- Lucene是一个基于Java的全文索引工具包。

基于Java的全文索引引擎Lucene简介:关于作者和Lucene的历史全文检索的实现:Luene全文索引和数据库索引的比较中文切分词机制简介:基于词库和自动切分词算法的比较具体的安装和使用简介:系统结构介绍和演示Hacking Lucene:简化的查询分析器,删除的实现,定制的排序,应用接口的扩展从Lucene我们还可以学到什么基于Java的全文索引/检索引擎——LuceneLucene不是一个完整的全文索引应用,而是是一个用Java写的全文索引引擎工具包,它可以方便的嵌入到各种应用中实现针对应用的全文索引/检索功能。

Lucene的作者:Lucene的贡献者Doug Cutting是一位资深全文索引/检索专家,曾经是V-Twin 搜索引擎(Apple的Copland操作系统的成就之一)的主要开发者,后在Excite担任高级系统架构设计师,目前从事于一些INTERNET底层架构的研究。

他贡献出的Lucene的目标是为各种中小型应用程序加入全文检索功能。

Lucene的发展历程:早先发布在作者自己的,后来发布在SourceForge,2001年年底成为APACHE基金会jakarta的一个子项目:/lucene/已经有很多Java项目都使用了Lucene作为其后台的全文索引引擎,比较著名的有:Jive:WEB论坛系统;Eyebrows:邮件列表HTML归档/浏览/查询系统,本文的主要参考文档“TheLucene search engine: Powerful, flexible, and free”作者就是EyeBrows系统的主要开发者之一,而EyeBrows已经成为目前APACHE项目的主要邮件列表归档系统。

Cocoon:基于XML的web发布框架,全文检索部分使用了LuceneEclipse:基于Java的开放开发平台,帮助部分的全文索引使用了Lucene对于中文用户来说,最关心的问题是其是否支持中文的全文检索。

但通过后面对于Lucene 的结构的介绍,你会了解到由于Lucene良好架构设计,对中文的支持只需对其语言词法分析接口进行扩展就能实现对中文检索的支持。

全文检索的实现机制Lucene的API接口设计的比较通用,输入输出结构都很像数据库的表==>记录==>字段,所以很多传统的应用的文件、数据库等都可以比较方便的映射到Lucene的存储结构/接口中。

总体上看:可以先把Lucene当成一个支持全文索引的数据库系统。

比较一下Lucene和数据库:Lucene 数据库索引数据源:doc(field1,field2...) doc(field1,field2...) \indexer / _____________ | Lucene Index| -------------- / searcher \ 结果输出:Hits(doc(field1,field2)doc(field1...)) 索引数据源:record(field1,field2...) record(field1..) \ SQL: insert/ _____________ | DB Index | ------------- / SQL: select \结果输出:results(record(field1,field2..)record(field1...))Document:一个需要进行索引的“单元”一个Document由多个字段组成 Record:记录,包含多个字段Field:字段 Field:字段Hits:查询结果集,由匹配的Document组成 RecordSet:查询结果集,由多个Record组成全文检索≠ like "%keyword%"通常比较厚的书籍后面常常附关键词索引表(比如:北京:12, 34页,上海:3,77页……),它能够帮助读者比较快地找到相关内容的页码。

而数据库索引能够大大提高查询的速度原理也是一样,想像一下通过书后面的索引查找的速度要比一页一页地翻内容高多少倍……而索引之所以效率高,另外一个原因是它是排好序的。

对于检索系统来说核心是一个排序问题。

由于数据库索引不是为全文索引设计的,因此,使用like "%keyword%"时,数据库索引是不起作用的,在使用like查询时,搜索过程又变成类似于一页页翻书的遍历过程了,所以对于含有模糊查询的数据库服务来说,LIKE对性能的危害是极大的。

如果是需要对多个关键词进行模糊匹配:like"%keyword1%" and like "%keyword2%" ...其效率也就可想而知了。

所以建立一个高效检索系统的关键是建立一个类似于科技索引一样的反向索引机制,将数据源(比如多篇文章)排序顺序存储的同时,有另外一个排好序的关键词列表,用于存储关键词==>文章映射关系,利用这样的映射关系索引:[关键词==>出现关键词的文章编号,出现次数(甚至包括位置:起始偏移量,结束偏移量),出现频率],检索过程就是把模糊查询变成多个可以利用索引的精确查询的逻辑组合的过程。

从而大大提高了多关键词查询的效率,所以,全文检索问题归结到最后是一个排序问题。

由此可以看出模糊查询相对数据库的精确查询是一个非常不确定的问题,这也是大部分数据库对全文检索支持有限的原因。

Lucene最核心的特征是通过特殊的索引结构实现了传统数据库不擅长的全文索引机制,并提供了扩展接口,以方便针对不同应用的定制。

可以通过一下表格对比一下数据库的模糊查询:Lucene全文索引引擎数据库索引将数据源中的数据都通过全文索引一一建立反向索引对于LIKE查询来说,数据传统的索引是根本用不上的。

数据需要逐个便利记录进行GREP式的模糊匹配,比有索引的搜索速度要有多个数量级的下降。

匹配效果通过词元(term)进行匹配,通过语言分析接口的实现,可以实现对中文等非英语的支持。

使用:like "%net%" 会把netherlands也匹配出来,多个关键词的模糊匹配:使用like "%com%net%":就不能匹配词序颠倒的 匹配度有匹配度算法,将匹配程度(相似度)比较高的结果排在前面。

没有匹配程度的控制:比如有记录中net出现5词和出现1次的,结果是一样的。

结果输出通过特别的算法,将最匹配度最高的头100条结果输出,结果集是缓冲式的小批量读取的。

返回所有的结果集,在匹配条目非常多的时候(比如上万条)需要大量的内存存放这些临时结果集。

可定制性通过不同的语言分析接口实现,可以方便的定制出符合应用需要的索引规则(包括对中文的支持)没有接口或接口复杂,无法定制结论高负载的模糊查询应用,需要负责的模糊查询的规则,索引的资料量比较大使用率低,模糊匹配规则简单或者需要模糊查询的资料量少全文检索和数据库应用最大的不同在于:让最相关的头100条结果满足98%以上用户的需求Lucene的创新之处:大部分的搜索(数据库)引擎都是用B树结构来维护索引,索引的更新会导致大量的IO操作,Lucene在实现中,对此稍微有所改进:不是维护一个索引文件,而是在扩展索引的时候不断创建新的索引文件,然后定期的把这些新的小索引文件合并到原先的大索引中(针对不同的更新策略,批次的大小可以调整),这样在不影响检索的效率的前提下,提高了索引的效率。

Lucene和其他一些全文检索系统/应用的比较:Lucene 其他开源全文检索系统增量索引和批量索引可以进行增量的索引(Append),可以对于大量数据进行批量索引,并且接口设计用于优化批量索引和小批量的增量索引。

很多系统只支持批量的索引,有时数据源有一点增加也需要重建索引。

数据源 Lucene没有定义具体的数据源,而是一个文档的结构,因此可以非常灵活的适应各种应用(只要前端有合适的转换器把数据源转换成相应结构),很多系统只针对网页,缺乏其他格式文档的灵活性。

索引内容抓取 Lucene的文档是由多个字段组成的,甚至可以控制那些字段需要进行索引,那些字段不需要索引,近一步索引的字段也分为需要分词和不需要分词的类型:需要进行分词的索引,比如:标题,文章内容字段不需要进行分词的索引,比如:作者/日期字段缺乏通用性,往往将文档整个索引了语言分析通过语言分析器的不同扩展实现:可以过滤掉不需要的词:an the of 等,西文语法分析:将jumps jumped jumper都归结成jump进行索引/检索非英文支持:对亚洲语言,阿拉伯语言的索引支持缺乏通用接口实现查询分析通过查询分析接口的实现,可以定制自己的查询语法规则:比如:多个关键词之间的 + - and or关系等并发访问能够支持多用户的使用关于亚洲语言的的切分词问题(Word Segment)对于中文来说,全文索引首先还要解决一个语言分析的问题,对于英文来说,语句中单词之间是天然通过空格分开的,但亚洲语言的中日韩文语句中的字是一个字挨一个,所有,首先要把语句中按“词”进行索引的话,这个词如何切分出来就是一个很大的问题。

首先,肯定不能用单个字符作(si-gram)为索引单元,否则查“上海”时,不能让含有“海上”也匹配。

但一句话:“北京天安门”,计算机如何按照中文的语言习惯进行切分呢?“北京天安门”还是“北京天安门”?让计算机能够按照语言习惯进行切分,往往需要机器有一个比较丰富的词库才能够比较准确的识别出语句中的单词。

另外一个解决的办法是采用自动切分算法:将单词按照2元语法(bigram)方式切分出来,比如:"北京天安门" ==> "北京京天天安安门"。

这样,在查询的时候,无论是查询"北京" 还是查询"天安门",将查询词组按同样的规则进行切分:"北京","天安安门",多个关键词之间按与"and"的关系组合,同样能够正确地映射到相应的索引中。

这种方式对于其他亚洲语言:韩文,日文都是通用的。

基于自动切分的最大优点是没有词表维护成本,实现简单,缺点是索引效率低,但对于中小型应用来说,基于2元语法的切分还是够用的。

基于2元切分后的索引一般大小和源文件差不多,而对于英文,索引文件一般只有原文件的30%-40%不同,自动切分词表切分实现实现非常简单实现复杂查询增加了查询分析的复杂程度,适于实现比较复杂的查询语法规则存储效率索引冗余大,索引几乎和原文一样大索引效率高,为原文大小的30%左右维护成本无词表维护成本词表维护成本非常高:中日韩等语言需要分别维护。

相关文档
最新文档