转自:http://blog.csdn.net/linzhiqiang0316/article/details/51554217,表示感谢。
由于前面没有设置分词器,以至于查询的结果出入比较大,并且无法进行正确的高亮显示。现在配置一下分词器来解决相关问题。
solr6.0中进行中文分词器IK Analyzer的配置和solr低版本中最大不同点在于IK Analyzer中jar包的引用。一般的IK分词jar包都是不能用的,因为IK分词中传统的jar不支持solr6.0这个高版本的,所以就会发送运行错误的界面。下面就来介绍一下solr6.0中中文分词器IK Analyzer的配置。
步骤1:
下载solr6.0专用的IK Analyzer的jar包和相应的配置文件。因为IK Analyzer可以很方便的对词库近些年扩展,所以我在IK Analyzer中加入了搜狗词库的配置,可以最大限度的收录现在一些潮流的词语。 IK Analyzer的jar包和相应的配置文件下载地址:点击打开链接
步骤2:
解压上一个步骤所得到的压缩包,将ik-analyzer-solr5-5.x.jar这个jar包放入solr项目下的WEB-INFlib目录中去,将IKAnalyzer.cfg.xml,mydict.dic(搜狗的扩展词库),stopword.dic放在solr项目下的WEB-INFclasses目录中去。
步骤3:
将项目下solrhomemynodeconf下的managed-schema配置文件中</schema>上面加入如下配置信息:
<fieldType name="text_ik" class="solr.TextField"> <analyzer class="org.wltea.analyzer.lucene.IKAnalyzer"/> </fieldType>
步骤4:
启动Tomcat,打开solr项目主页进行测试。测试结果如下: