写在前面

为什么要在elasticsearch中要使用ik这样的中文分词呢,那是因为es提供的分词是英文分词,对于中文的分词就做的非常不好了,因此我们需要一个中文分词器来用于搜索和使用。今天我们就尝试安装下IK分词。

IK 分词器简介

  • Elasticsearch中文分词我们采用Ik分词,ik有两种分词模式,ik_max_word,和ik_smart模式

  • ik_max_word 和 ik_smart 什么区别

    ik_max_word: 会将文本做最细粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,中华人民,中华,华人,人民共和国,人民,人,民,共和国,共和,和,国国,国歌”,会穷尽各种可能的组合;
    ik_smart: 会做最粗粒度的拆分,比如会将“中华人民共和国国歌”拆分为“中华人民共和国,国歌”。

    索引时,为了提供索引的覆盖范围,通常会采用ik_max_word分析器,会以最细粒度分词索引,搜索时为了提高搜索准确度,会采用ik_smart分析器,会以粗粒度分词

安装方法

第一种

  1. 去github 下载对应的分词插件
    根据不同版本下载不同的分词插件,下载地址:elasticsearch-analysis-ik

  2. 到es的plugins 目录创建文件夹

    cd your-es-root/plugins/ && mkdir ik
  3. 解压ik分词插件到ik文件夹

    unzip elasticsearch-analysis-ik-6.4.3.zip

第二种

还有一种方式 直接通过es的命令进行安装,es版本需要大于5.5.1

./bin/elasticsearch-plugin install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v6.3.0/elasticsearch-analysis-ik-6.3.0.zip

安装好后 重启es
会看到 加载了 ik分词了
img

转自:梁天的博客 - elasticsearch 安装中文分词