整合中文分词器:
1:下载并解压IK。主要只要里面的这几个文件
IKAnalyzer2012FF_u1.jar
IKAnalyzer.cfg.xml
stopword.dic
2:开始整合
首先把IKAnalyzer2012FF_u1.jar导入到solr中web应用的lib目录中
cp ik/IKAnalyzer2012FF_u1.jar solr-4.10.4/example/solr-webapp/webapp/WEB-INF/lib/
再把IKAnalyzer.cfg.xml和stopword.dic拷贝到solr中web应用的类路径下,但是这个classes目录不存在,需要手工创建。
cp ik/IKAnalyzer.cfg.xml solr-4.10.4/example/solr-webapp/webapp/WEB-INF/classes/
cp ik/stopword.dic solr-4.10.4/example/solr-webapp/webapp/WEB-INF/classes/
3:使用ik,需要修改shema.xml文件
<!--配置IK分词器-->
<fieldType name="text_ik" class="solr.TextField">
<!--索引时候的分词器-->
<analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/>
<!--查询时候的分词器-->
<analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/>
</fieldType>
再把需要使用ik分析的字段的type修改为text_ik
text
name
manu
....
注意:只要这个字段需要进行查询,并且这个字段的值还是中文的话,建议都使用text_ik类型
4:验证
先重启solr
查看分词效果