zoukankan      html  css  js  c++  java
  • 通过 Solr 取得分词

    原文出处:http://blog.chenlb.com/2010/08/get-solr-analysis-word.html

    Solr 1.3 只有 AnalysisRequestHandler 处理器,只能提交文档来观察文档的分词结果。 Solr 1.4 有了对字段的分词。FieldAnalysisRequestHandler 可以对某个字段或字段类型的分词器对查询串取到分词数据。

    用 solr 的默认配置,如 solr 1.4.1

    我用 mmseg4j 为例。在 solr.root/example/solr/conf/schema.xml 的 types 元素内加:

    1. <fieldType name="text_cn" class="solr.TextField" positionIncrementGap="100">  
    2.   <analyzer>  
    3.     <tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory"/>  
    4.   </analyzer>  
    5. </fieldType>  
        <fieldType name="text_cn" class="solr.TextField" positionIncrementGap="100">       <analyzer>         <tokenizer class="com.chenlb.mmseg4j.solr.MMSegTokenizerFactory"/>       </analyzer>     </fieldType> 

    mmseg4j-all-1.8.2-with-dic.jar 放到 solr.home/example/solr/lib,没有 lib 目录,创建一个。更多关于 solr 中使用 mmseg4j 的内容请看:solr 中文分词 mmseg4j 使用例子

    如:“中国工商银行”
    http://localhost:8983/solr/analysis/field?q=%E4%B8%AD%E5%9B%BD%E5%B7%A5%E5%95%86%E9%93%B6%E8%A1%8C&analysis.fieldtype=text_cn&indent=on&wt=json

    1. {  
    2.  "responseHeader":{  
    3.   "status":0,  
    4.   "QTime":0},  
    5.  "analysis":{  
    6.   "field_types":{  
    7.     "text_cn":{  
    8.      "query":[  
    9.       "com.chenlb.mmseg4j.analysis.MMSegTokenizer",[{  
    10.          "text":"中国",  
    11.          "type":"word",  
    12.          "start":0,  
    13.          "end":2,  
    14.          "position":1},  
    15.         {  
    16.          "text":"工商",  
    17.          "type":"word",  
    18.          "start":2,  
    19.          "end":4,  
    20.          "position":2},  
    21.         {  
    22.          "text":"银行",  
    23.          "type":"word",  
    24.          "start":4,  
    25.          "end":6,  
    26.          "position":3}]]}},  
    27.   "field_names":{}}}  
    {  "responseHeader":{   "status":0,   "QTime":0},  "analysis":{   "field_types":{ 	"text_cn":{ 	 "query":[ 	  "com.chenlb.mmseg4j.analysis.MMSegTokenizer",[{ 		 "text":"中国", 		 "type":"word", 		 "start":0, 		 "end":2, 		 "position":1}, 		{ 		 "text":"工商", 		 "type":"word", 		 "start":2, 		 "end":4, 		 "position":2}, 		{ 		 "text":"银行", 		 "type":"word", 		 "start":4, 		 "end":6, 		 "position":3}]]}},   "field_names":{}}} 

    就可以取得查询串的分词结果。

    这个功能可以解决,如搜索“清华大学” 找不到 “清华 大学” 文档的问题。这个问题的根本原因是 lucene / solr 使用的查询解析器生成的 Query 是短语查询。短语查询默认又是连续的词中没有其它字符。所以会找不到。

    目前我知的方式大概有二种:

    1、查询前分词一遍,把分出的词用空格分开,再去搜索(叫它为查询预处理)。查询前分词可以上面的接口。

    2、扩展 solr query parser,返回 boolean query。

    当然还有同学回复说指定短语的距离,如 "清华大学~100",这个可以投机使用,不够可靠。

  • 相关阅读:
    spring+ springmvc + websocket+sockjs 404/200
    spring+ springmvc + websocket+sockjs 404/200
    Java中assert(断言)的使用
    Java中assert(断言)的使用
    shiro 静态页面资源不显示 解决方案
    shiro 静态页面资源不显示 解决方案
    彻底解决 intellij IDEA 卡顿 优化笔记
    彻底解决 intellij IDEA 卡顿 优化笔记
    bigdecimal 保留小数位
    bigdecimal 保留小数位
  • 原文地址:https://www.cnblogs.com/wycg1984/p/1812381.html
Copyright © 2011-2022 走看看