solr教程

合集下载

Solr安装使用教程

Solr安装使用教程

Solr安装使⽤教程⼀、安装1.1 安装jdksolr是基于lucene⽽lucene是java写的,所以solr需要jdk----当前安装的solr-7.5需要jdk-1.8及以上版本,下载安装jdk并设置JAVA_HOME即可。

jdk下载地址:1.2 安装solr下载solr,然后解压即可,windows和linux都可以下.tgz(.tgz本质是.tar.gz)和.zip解压出来都⼀样的。

solr下载地址:要注意图中的链接是下载页⾯的链接并不是solr⽂件的链接,直接wget链接就报gzip: solr-7.5.0.tgz: not in gzip format或End-of-central-directory signature not found.了。

1.3 设置系统资源限制设置最⼤进程数t和打开⽂件数为65000(可能其他⼀些资源也要修改但我安装时没见有其他问题,⽂档也没看到专门说明)ulimit -u 65000ulimit -n 65000⼆、solr基本⽤法对于没⽤过的新⼿⽽⾔,⾸先最关⼼的是怎么运⾏起来看这东西长什么样其他什么⾼级⽤法后⽽再说,这⾥我们就来做这件事。

2.1 启停进⼊解压后⽂件的bin⽬录,执⾏:# 启动./solr start# 停⽌./solr stopsolr默认拒绝以root⾝份启动,root加-force选项可以启动,但后续进⾏操作(如创建核⼼等)还是会有问题,推荐使⽤普通⽤户动。

启动完成后默认监听8983端⼝,访问可见界⾯如下2.2 solr核⼼(core)创建与删除在上⾯启动起来的页⾯可以看到solr就是就是这么⼀个界⾯简陋的东西----页⾯简单(没⼏个页⾯)加布局丑陋。

solr中⼀个核⼼(core)相当于⼀个搜索引擎,然后上传⽂件时也是上传到指定核⼼;solr可以建⽴多个solr。

solr默认没有core,我们先来创建⼀个core。

通过命令创建和删除core:# 创建core,-c指定创建的core名./solr create -c test_core1# 删除core,-c指定删除的core名./solr delete -c test_core1完成后回刷新solr界⾯,点击下拉“Core Selector”即可看到刚才建⽴的core,选择core即可进⼊core的管理界⾯,如下图。

SolrCloud安装手册基于solr

SolrCloud安装手册基于solr

solrCloud集群安装手册—基于solrS. 2. 1、SolrCloud 集群架构概览1.1 SolrCloud 索引架构SolKloud 的索引存储中,三台服务器都要存索引。

1.2 ZooKeeper 架构ZooKeeper 集群,同时在三台服务器中配置ZooKeepero Shardl SolrCloudshardsShard2其中每一个分片有两份数据,一个是leader^ 同机器上,可以保证在某一台服务器down 掉后, 另一个是备份。

分别存储在不 仍可提供完整的数据服务。

c a har d25 hards —♦114.212-83.2430114.212.86.102O1I4.212.82.189 • 114,212.83.243 0114.212-82489—•114.212.86402/3.1JDK配置(1)解压JDK的压缩包至/usr/local/ U录下tar -zxvf JDK 压缩包位置-C /usr/local/(2)修改配置文件vi /etc/profile在下面添加如下内容export JAVA_HOME=/usr/local/jdkl.8.0_45exp ort CLASSPATH二•:${JAVA_HOME}/lib:${JAVA_HOME}/lib/tools・jarexport PATH=S{JAVA_HOME}/bin:$PATH然后在命令行中输入source /etc/profile输入命令java -version査看是否安装正确3.2Tomcat 配置(1)解压tomcat的压缩包至/home/dell/sofhvare tl录下tar -zx\・f ap aclie-tonicat-8.0.14.tar.gz(2)运行tomcat 中的staitiip.sh 运行tomcat(3)由于防火墙的原因无法访问8080端口,以下步骤为开放8080端口:/sbin/iptables -I INPUT -p tcp -dport 8080 寸ACCEPTservice iptables saveservice iptables restart或者直接禁用防火墙:停止/启动防火墙/sbin/service ip tables restart "重启/sbin/service ip tables stop —停止/sbi n/service ip tables start -启动1)重启后生效开启: chkconfig ip tables on 关闭:chkconfig iptables off2)即时生效,重启后失效开启:service ip tables start 关闭:service ip tablesstop然后访问服务器的8080端口査看tomcat是否安装正确。

solr 求和函数

solr 求和函数

Solr 求和函数一、介绍Apache Solr是一款开源的搜索平台,提供了强大的全文检索和实时分析的功能。

Solr支持各种查询和过滤条件,其中求和函数是一项非常有用的功能,可用于对搜索结果进行聚合操作,计算某个字段或表达式的总和。

本文将详细介绍Solr求和函数的使用和应用场景。

二、基本语法Solr的求和函数使用sum()函数来计算指定字段的总和。

其基本语法如下:sum(field)其中,field为要计算总和的字段名。

例如,要计算price字段的总和,可以使用以下表达式:sum(price)三、使用示例下面通过一个示例来演示如何在Solr中使用求和函数。

假设我们有一个电商网站的商品数据集合,其中包含每个商品的价格信息。

我们想要计算所有商品的总销售额。

1.创建一个名为products的collection,并添加一些文档。

每个文档包含id、name和price字段,分别表示商品的唯一标识、名称和价格。

2.在查询时,使用sum(price)将所有商品价格求和,并将结果作为一个额外的字段返回。

以下是示例请求的URL和参数:3.执行上述请求后,Solr将返回结果集中的每个文档以及额外的total_price字段,该字段的值为所有商品价格的总和。

四、应用场景Solr的求和函数在多种场景中都具有重要的作用。

下面列举了一些常见的应用场景:1. 统计销售额在电商网站或零售业务中,求和函数可以用于计算每个店铺或销售员的销售额,从而实时监控业绩并做出适当的调整。

2. 分析用户行为通过将用户行为数据导入Solr并使用求和函数,可以分析每个用户的点击次数、购买金额等指标,进而了解用户的偏好和行为习惯。

3. 统计数据汇总对于大量数据的统计分析,Solr的求和函数可以快速计算各个字段的总和,例如订单数量、用户数量、评分等。

4. 运营决策支持通过将多个数据源导入Solr,并使用求和函数对各个指标进行统计,可以为运营决策提供数据支持。

Solr的原理及使用

Solr的原理及使用

Solr的原理及使⽤1.Solr的简介Solr是⼀个独⽴的企业级搜索应⽤服务器,它对外提供类似于Web-service的API接⼝。

⽤户可以通过http请求,向搜索引擎服务器提交⼀定格式的XML⽂件,⽣成索引;也可以通过Http Get操作提出查找请求,并得到XML格式的返回结果。

2.⼯作原理solr是基于Lucence开发的企业级搜索引擎技术,⽽lucence的原理是倒排索引。

那么什么是倒排索引呢?接下来我们就介绍⼀下lucence倒排索引原理。

假设有两篇⽂章1和2:⽂章1的内容为:⽼超在卡⼦门⼯作,我也是。

⽂章2的内容为:⼩超在⿎楼⼯作。

由于lucence是基于关键词索引查询的,那我们⾸先要取得这两篇⽂章的关键词。

如果我们把⽂章看成⼀个字符串,我们需要取得字符串中的所有单词,即分词。

分词时,忽略”在“、”的“之类的没有意义的介词,以及标点符号可以过滤。

我们使⽤Ik Analyzer实现中⽂分词,分词之后结果为:⽂章1:⽂章2:接下来,有了关键词后,我们就可以建⽴倒排索引了。

上⾯的对应关系是:“⽂章号”对“⽂章中所有关键词”。

倒排索引把这个关系倒过来,变成: “关键词”对“拥有该关键词的所有⽂章号”。

通常仅知道关键词在哪些⽂章中出现还不够,我们还需要知道关键词在⽂章中出现次数和出现的位置,通常有两种位置:a.字符位置,即记录该词是⽂章中第⼏个字符(优点是关键词亮显时定位快);b.关键词位置,即记录该词是⽂章中第⼏个关键词(优点是节约索引空间、词组(phase)查询快),lucene中记录的就是这种位置。

加上出现频率和出现位置信息后,我们的索引结构变为:实现时,lucene将上⾯三列分别作为词典⽂件(Term Dictionary)、频率⽂件(frequencies)、位置⽂件 (positions)保存。

其中词典⽂件不仅保存有每个关键词,还保留了指向频率⽂件和位置⽂件的指针,通过指针可以找到该关键字的频率信息和位置信息。

solr 求和函数

solr 求和函数

solr 求和函数Solr是一种基于Lucene的搜索引擎,它提供了强大的搜索功能和灵活的查询语言。

在Solr中,可以使用函数来对查询结果进行各种操作,包括求和、平均值、最大值、最小值等。

本文将介绍Solr中的求和函数。

一、什么是求和函数在Solr中,求和函数用于对查询结果中某个字段的值进行求和操作。

例如,在一个商品库存查询中,可以使用求和函数统计所有商品的库存总量。

Solr提供了多种类型的求和函数,包括普通求和、加权求和等。

二、普通求和函数普通求和函数用于对某个字段的值进行简单的数值相加操作。

它的语法如下:sum(field)其中,field表示要进行求和操作的字段名。

例如,在一个商品库存查询中,可以使用如下语句统计所有商品的库存总量:q=*:*&stats=true&stats.field=sum(stock)这条语句表示查询所有文档,并对stock字段进行统计。

stats=true 表示开启统计功能,stats.field=sum(stock)表示对stock字段进行求和操作。

三、加权求和函数加权求和函数用于对某个字段的值进行带权重的数值相加操作。

它的语法如下:sum(product(field, weight))其中,field表示要进行加权操作的字段名,weight表示该字段所占比重。

例如,在一个商品库存查询中,可以使用如下语句统计所有商品的库存总量,并按照不同商品的销售量进行加权:q=*:*&stats=true&stats.field=sum(product(stock, sales))这条语句表示查询所有文档,并对stock字段进行统计。

product(stock, sales)表示将stock字段乘以sales字段作为权重进行加权操作。

四、多字段求和函数多字段求和函数用于对多个字段的值进行求和操作。

它的语法如下:sum(field1, field2, ...)其中,field1、field2等表示要进行求和操作的字段名。

ApacheSolr入门教程(初学者之旅)

ApacheSolr入门教程(初学者之旅)

ApacheSolr⼊门教程(初学者之旅)Apache Solr⼊门教程(初学者之旅)写在前⾯:本⽂涉及solr⼊门的各⽅⾯,建议边思考边实践,相信能帮助你对solr有个清晰全⾯的了解并能简单实⽤。

在Apache Solr初学者教程的这个例⼦中,我们将讨论有关如何安装最新版本的Apache Solr,并告诉你如何配置它。

此外,我们将告诉你如何进⾏使⽤solr的样本数据⽂件索引。

Apache Solr⽀持不同格式,包括各种数据库,PDF⽂件,XML⽂件,CSV⽂件等等。

在这个例⼦中,我们将研究如何从⼀个CSV⽂件索引数据。

⾸选这个例⼦的环境是Windows。

开始Solr安装之前,确保你已经安装了JDK和正确配置JAVA_HOME。

1.为什么选择Apache SolrApache Solr是⼀个功能强⼤的搜索服务器,它⽀持REST风格API。

Solr是基于Lucene的,Lucene ⽀持强⼤的匹配能⼒,如短语,通配符,连接,分组和更多不同的数据类型。

它使⽤ Apache Zookeeper特别针对⾼流量进⾏优化。

Apache Solr提供各式各样的功能,我们列出了部分最主要的功能。

1. 先进的全⽂搜索功能。

2. XML,JSON和HTTP - 基于开放接⼝标准。

3. ⾼度可扩展和容错。

4. 同时⽀持模式和⽆模式配置。

5. 分页搜索和过滤。

6. ⽀持像英语,德语,中国,⽇本,法国和许多主要语⾔7. 丰富的⽂档分析。

2.安装Apache Solr要⾸先让从以下位置下载最新版本的Apache Solr:在撰写本⽂时,可⽤的稳定版本是5.0.0。

Apache Solr经历了从4.XX到5.0.0各种变化了,所以如果你有不同版本的Solr,你需要下载5.xx版本并以此为模板。

⼀旦Solr的zip⽂件下载将它解压缩到⼀个⽂件夹。

提取的⽂件夹看起来像下⾯。

Solr的⽂件夹bin⽂件夹中包含⽤来启动和停⽌服务器的脚本。

solr完整快速搭建版(学习笔记)

solr完整快速搭建版(学习笔记)

Solr学习笔记由于公司一个网站需要实现搜索功能的更新换代,在和编辑和领导沟通了一段时间之后,我们决定不再使用之前的通过JDBC发送sql语句进行搜索的方法。

一番比较,我们决定选用Lucene来搭建我们全文搜索的框架。

后来由于开发时间有限,Solr对lucene的集成非常好,我们决定使用Struts+Spring+Solr+IKAnalyzer的一个开发模式来快速搭建一个企业级搜索平台。

自己之前没有接触过这方面的东西,从不断看网上的帮助文档,逛论坛,逛wiki,终于一点一点的开发出一个有自己风格并又适合公司搜索要求的这么一个全文搜索功能。

网上对于lucene,solr的资料并不是那么多,而且大多是拷贝再拷贝,开发起来难度是有的,项目缺陷也是有的,但是毕竟自己积累了这么一个搭建小型搜索引擎的经验,很有收获,所以准备写个笔记记录下来,方便自己以后回忆,而且可以帮助一下其他学者快速搭建一个企业级搜索。

主要思想:此企业级搜索分2块,一块是Solr项目:仅关于Solr一系列配置,索引,建立/更新索引配置。

另一块是网站项目:Action中通过httpclient通信,类似webService一个交互实现,访问配置完善并运行中的Solr,发送查询请求,得到返回的结果hits(solrJ查询,下面详解),传递给jsp页面。

1.下载包Lucene3.5Solr3.5IKAnalyzer3.2.8中文分词器(本文也仅在此分词器配置的基础上)开发时段:2011.12中旬至1月中旬(请自己下载…)都是最新版,个人偏好新东西,稳定不稳定暂不做评论。

2.搭建Solr项目:1.apache-solr-3.5.0\dist下得apache-solr-3.5.0.war复制到tomcat下webapps目录,并更改名字为solr.war,运行生成目录.2.将IKAnalyzer的jar包导入刚生成的项目中lib目录下。

3.Solr项目配置中文分词:在solr/conf/schema.xml中<types>节点下添加个<fieldType>类型(可直接拷贝下段代码)<!--hu add IKAnalyzer configuration--><fieldType name="textik" class="solr.TextField" ><analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/><analyzer type="index"><tokenizer class="org.wltea.analyzer.solr.IKT okenizerFactory"isMaxWordLength="false"/><filter class="solr.StopFilterFactory"ignoreCase="true" words="stopwords.txt"/><filter class="solr.WordDelimiterFilterFactory"generateWordParts="1"generateNumberParts="1"catenateWords="1"catenateNumbers="1"catenateAll="0"splitOnCaseChange="1"/><filter class="solr.LowerCaseFilterFactory"/><filter class="solr.EnglishPorterFilterFactory"protected="protwords.txt"/><filter class="solr.RemoveDuplicatesT okenFilterFactory"/></analyzer><analyzer type="query"><tokenizer class="org.wltea.analyzer.solr.IKT okenizerFactory" isMaxWordLength="false"/><filter class="solr.StopFilterFactory"ignoreCase="true" words="stopwords.txt"/><filter class="solr.WordDelimiterFilterFactory"generateWordParts="1"generateNumberParts="1"catenateWords="1"catenateNumbers="1"catenateAll="0"splitOnCaseChange="1"/><filter class="solr.LowerCaseFilterFactory"/><filter class="solr.EnglishPorterFilterFactory"protected="protwords.txt"/><filter class="solr.RemoveDuplicatesT okenFilterFactory"/></analyzer></fieldType>此配置不过多解释:<analyzer type="query">此处配置type并分成index和query 代表着在索引和查询时候的分词实现,isMaxWordLength表示是以何种分词实现,true,false各代表一种,具体请看IKAnalyzer说明文档。

Solr开发指南

Solr开发指南

Solr全文检索技术1.Solr介绍 152.Solr安装配置-SolrCore配置 153.Solr安装配置-Solr工程部署 104.Solr安装配置-Solr工程测试 155.Solr安装配置-多SorlCore配置 106.Solr入门--schema 207.Solr入门-安装中文分词器 158.Solr入门-自定义业务系统Field 209.Solr入门-SolrJ介绍1010.Solr入门-SolrJ索引维护 2011.Solr入门-数据导入处理器2012.Solr入门-搜索语法 1013.Solr入门-SolrJ-搜索 2014.Solr案例-需求分析 1015.Solr案例-架构设计 1516.Solr案例-Service 2017.Solr案例-Controller 2018.Solr案例-主体调试 2019.Solr案例-功能完善1【Solr介绍】1.1S olr是什么Solr 是Apache下的一个顶级开源项目,采用Java开发,它是基于Lucene的全文搜索服务。

Solr提供了比Lucene更为丰富的查询语言,同时实现了可配置、可扩展,并对索引、搜索性能进行了优化。

Solr可以独立运行,运行在Jetty、Tomcat等这些Servlet容器中,Solr 索引的实现方法很简单,用 POST 方法向 Solr 服务器发送一个描述 Field 及其内容的 XML 文档,Solr根据xml文档添加、删除、更新索引。

Solr 搜索只需要发送 HTTP GET 请求,然后对 Solr 返回Xml、json等格式的查询结果进行解析,组织页面布局。

Solr不提供构建UI的功能,Solr提供了一个管理界面,通过管理界面可以查询Solr的配置和运行情况。

1.2S olr与Lucene的区别Lucene是一个开放源代码的全文检索引擎工具包,它不是一个完整的全文检索引擎,Lucene提供了完整的查询引擎和索引引擎,目的是为软件开发人员提供一个简单易用的工具包,以方便的在目标系统中实现全文检索的功能,或者以Lucene为基础构建全文检索引擎。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Apache Solr 初级教程
(介绍、安装部署、Java接口、中文分词)Apache Solr 介绍
Solr 是什么?
Solr 是一个开源的企业级搜索服务器,底层使用易于扩展和修改的Java 来实现。

服务器通信使用标准的HTTP 和XML,所以如果使用Solr 了解Java 技术会有用却不是必须的要求。

Solr 主要特性有:强大的全文检索功能,高亮显示检索结果,动态集群,数据库接口和电子文档(Word ,PDF 等)的处理。

而且Solr 具有高度的可扩展,支持分布搜索和索引的复制。

Lucene 是什么?
Lucene 是一个基于 Java 的全文信息检索工具包,它不是一个完整的搜索应用程序,而是为你的应用程序提供索引和搜索功能。

Lucene 目前是 Apache Jakarta 家族中的一个开源项目。

也是目前最为流行的基于 Java 开源全文检索工具包。

目前已经有很多应用程序的搜索功能是基于 Lucene ,比如 Eclipse 帮助系统的搜索功能。

Lucene 能够为文本类型的数据建立索引,所以你只要把你要索引的数据格式转化的文本格式,Lucene 就能对你的文档进行索引和搜索。

Solr VS Lucene
Solr 与Lucene 并不是竞争对立关系,恰恰相反Solr 依存于Lucene ,因为Solr 底层的核心技术是使用Apache Lucene 来实现的,简单的说Solr 是Lucene 的服务器化。

需要注意的是Solr 并不是简单的对Lucene 进行封装,它所提供的大部分功能都区别于Lucene 。

安装搭建Solr
安装Java 虚拟机
Solr 必须运行在Java1.5 或更高版本的Java 虚拟机中,运行标准Solr 服务只需要安装JRE 即可,但如果需要扩展功能或编译源码则需要下载JDK 来完成。

可以通过下面的地址下载所需JDK 或JRE :
∙OpenJDK (/j2se/downloads.html)
∙Sun (/j2se/downloads.html)
∙IBM (/developerworks/java/jdk/)
∙Oracle (/technology/products/jrockit/index.html)安装步骤请参考相应的帮助文档。

安装中间件
Solr 可以运行在任何Java 中间件中,下面将以开源Apache Tomcat 为例讲解Solr 的安装、配置与基本使用。

本文使用Tomcat5.5 解压版进行演示,可在下面地址下载最新版本/download-55.cgi
安装Apache Solr
下载最新的Solr
本文发布时Solr1.4 为最新的版本,下文介绍内容均针对该版本,如与Solr 最新版本有出入请以官方网站内容为准。

Solr官方网站下载地址:
/dyn/closer.cgi/lucene/solr/
Solr 程序包的目录结构
∙build :在solr 构建过程中放置已编译文件的目录。

∙client :包含了一些特定语言调用Solr 的API 客户端程序,目前只有Ruby 可供选择,Java 客户端叫SolrJ 在src/solrj 中可以找到。

∙dist :存放Solr 构建完成的JAR 文件、WAR 文件和Solr 依赖的JAR 文件。

∙example :是一个安装好的Jetty 中间件,其中包括一些样本数据和Solr 的配置信息。

o example/etc :Jetty 的配置文件。

o example/multicore :当安装Slor multicore 时,用来放置多个Solr 主目录。

o example/solr :默认安装时一个Solr 的主目录。

o example/webapps :Solr 的WAR 文件部署在这里。

∙src :Solr 相关源码。

o src/java :Slor 的Java 源码。

o src/scripts :一些在大型产品发布时一些有用的Unix bash shell 脚本。

o src/solrj :Solr 的Java 客户端。

o src/test :Solr 的测试源码和测试文件。

o src/webapp :Solr web 管理界面。

管理界面的Jsp 文件都放在web/admin/ 下面,可以根据你的需要修改这些文件。

Solr 的源码没有放在同一个目录下,src/java 存放大多数文件,
src/common 是服务器端与客户端公用的代码,src/test 放置solr 的测试程序,serlvet 的代码放在src/webapp/src 中。

Solr 主目录结构
一个运行的Solr 服务其主目录包含了Solr 的配置文件和数据(Lucene 的索引文件)
Solr 的主目录展开后为如下结构:
∙bin :建议将集群复制脚本放在这个目录下。

∙conf :放置配置文件。

o conf/schema.xml :建立索引的schema 包含了字段类型定义和其相关的分析器。

o conf/solrconfig.xml :这个是Solr 主要的配置文件。

o conf/xslt :包含了很多xslt 文件,这些文件能将Solr 的XML 的查询结果转换为特定的格式,比如:Atom/RSS。

∙data :放置Lucene 产生的索引数据。

∙lib :放置可选的JAR 文件比如对Slor 扩展的插件,这些JAR 文件将会在Solr 启动时加载。

发布运行Solr
将apache-solr-1.4.0/dist/apache-solr-1.4.0.war 从安装包中解压到<tomcat home>/webapps 下。

WAR 是一个完整的web 应用程序,包括了Solr 的Jar 文件和所有运行Solr 所依赖的Jar 文件,Jsp 和很多的配置文件与资源文件,这里需要注意的是:WAR 文件中不包括Solr 主目录,因此在启动tomcat 之前我们要先指定Solr 的主目录。

将安装程序中的apache-solr-1.4.0/example/solr 文件夹解压到<tomcat homt>/ 下,然后在<tomcat home>/bin/catalina.bat 第一行添加如下内容:
set JAVA_OPTS=%JAVA_OPTS% -Dsolr.solr.home=<tomcat home>/solr
注:Windows 以外操作系统需修改 catalina.sh 文件。

启动tomcat ,apache-solr-1.4.0.war 自动发布为web 应用。

点击链接访问Solr 控制台界面,
http://localhost:8080/apache-solr-1.4.0/ ,显示如下界面表示启动成功。

图 1 Solr 欢迎界面
图 2 管理控制台界面
使用Java 接口访问Solr 服务
SolrJ 是Solr 服务器的一个Java 接口,使用该接口再也不同为虑客户端与服务器端交互时格式解析和转换的问题烦恼了,取而代之的是用你熟悉的对象来进行相关的操作,而且随着Solr 的不断升级SolrJ 也会同样提供这些新加入的功能。

SolrJ (Solr1.4 )依赖的Jar 包
∙commons-codec-1.3.jar
∙commons-fileupload-1.2.1.jar
∙commons-httpclient-3.1.jar
∙commons-logging-1.0.4.jar
∙commons-io-1.4.jar
∙geronimo-stax-api_1.0_spec-1.0.1.jar
∙solr-solrj-1.4.0.jar
∙wstx-asl-3.2.7.jar
∙stax-api-1.0.1.jar
∙slf4j-api-1.5.5.jar
∙slf4j-simple-1.5.5.jar。

相关文档
最新文档