天天看點

Elasticsearch之中文分詞器插件ik一、下載下傳二、安裝三、測試四、自定義ik分詞

本文基于6.x版本

一、下載下傳

ik分詞器的一些使用介紹:https://github.com/medcl/elasticsearch-analysis-ik

ik分詞器GitHub下載下傳:https://github.com/medcl/elasticsearch-analysis-ik/releases

選擇與Elasticsearch版本對應的分詞器下載下傳。

二、安裝

# 在Elasticsearch的plugins目錄下建立ik插件檔案夾
cd your-es-root/plugins/ && mkdir ik
# unzip ik plugin to folder 解壓ik插件到前面建立的檔案夾 
cd your-es-root/plugins/ik
unzip ./elasticsearch-analysis-ik-.zip
# 重新開機 elasticsearch
           

三、測試

在kibana中輸入:

GET /_analyze
{
  "analyzer": "ik_max_word",
  "text": "任何一個節點接收到請求後,都可以自動把資料路由到有相關資料的其他節點上去處理請求"
}
           

四、自定義ik分詞

# 建立包放置 自定義分詞
cd your-es-root/plugins/ik/config
mkdir ./custom

# 自定義分詞 一
vim ./my-analysis1.dic # 在檔案内寫入如下内容(自定義的分詞)
    任何一個節點接收到
    以自動把數

# 自定義分詞 二    
vim ./my-analysis2.dic # 在檔案内寫入如下内容
    點上去處理請

# 在IKAnalyzer.cfg.xml中加入自定義的分詞,多個檔案以分号隔開
vim your-es-root/plugins/ik/config/IKAnalyzer.cfg.xml
    ./custom/my-analysis1.dic;./custom/my-analysis2.dic
           

vim ./plugins/ik/config/IKAnalyzer.cfg.xml

Elasticsearch之中文分詞器插件ik一、下載下傳二、安裝三、測試四、自定義ik分詞

es 下 plugins 包 的結構

Elasticsearch之中文分詞器插件ik一、下載下傳二、安裝三、測試四、自定義ik分詞

繼續閱讀