zoukankan      html  css  js  c++  java
  • elasticsearch安装ik分词器插件

    elasticsearch安装ik分词器插件

    分词∶即把一段中文或者别的划分成一个个的关键字,我们在搜索时候会把自己的信息进行分词,会把数据库中或者索引库中的数据进行分词,然后进行一个匹配操作,默认的中文分词是将每个字看成一个词,这显然是不符合要求的,所以我们需要安装中文分词器ik来解决这个问题。

    IK提供了两个分词算法:ik_ smart:最少切分、ik_max_word:最细粒度划分

    安装ik分词器插件

    • github下载ik分词器插件压缩包,跟elasticsearch版本保持一致
    • 在elasticsearch目录下的plugins文件夹里新建文件夹,用来存放ik分词器插件
    • 将ik分词器压缩包解压到新建的文件夹中
    • 重启elasticsearch服务
    • 查看是否加载ik分词器插件
    D:javaeselasticsearch-7.11.2-windows-x86_64elasticsearch-7.11.2in>elasticsearch-plugin list
    Future versions of Elasticsearch will require Java 11; your Java version from [D:javajdkjre] does not meet this requirement. Consider switching to a distribution of Elasticsearch with a bundled JDK. If you are already using a distribution with a bundled JDK, ensure the JAVA_HOME environment variable is not set.
    ik
    

    打开kibana测试

    ik_ smart:最少切分

    ik_max_word:最细粒度划分(穷尽词库的可能)

    ik分词器分的词可能达不到我们的需求,所以我们可以将自己需要的词加到分词器的字典中,在ik分词器中增加自己的配置

    • 在ik分词器插件的config目录下新建dic文件(dic文件就是字典),eg:yl.dic
    • 将自己需要的词添加到dic文件中
    • 打开IKAnalyzer.cfg.xml配置文件配置自己的字典
    <!--用户可以在这里配置自己的扩展字典 -->
    <entry key="ext_dict">yl.dic</entry>
    
    • 重启es服务以及kibana服务即可
    记得快乐
  • 相关阅读:
    [转]MFC与Qt的内存管理
    [转]QT项目生成流程例图
    [转]vc中nmake.exe cl.exe 的使用
    android_layout_linearlayout(二)
    android_layout_relativelayout(一)
    android_layout_linearlayout(一)
    android_layout_relativelayout(二)
    android_activity_研究(一)
    两个线程解决一个线程卡之路
    android_layout_framelayout
  • 原文地址:https://www.cnblogs.com/Y-wee/p/14563009.html
Copyright © 2011-2022 走看看