天天看點

Linux和Windows下elasticsearch安裝和使用ik分詞器

下載下傳IK分詞器:https://github.com/medcl/elasticsearch-analysis-ik/releases

Linux和Windows下elasticsearch安裝和使用ik分詞器

必須跟elasticsearch版本一緻,可以選擇版本下載下傳,沒有對應版本可以翻頁找找看 

開始安裝

Windows下安裝:

1.在elasticsearch的plugins目錄下建立名為ik的目錄;

2.再将下載下傳的elasticsearch-analysis-ik-7.6.2.zip壓縮包解壓到這個新建立的ik目錄下,隻需要elasticsearch-analysis-ik-7.6.2.zip下的内容,不需要再生成一個elasticsearch-analysis-ik-7.6.2檔案夾,如圖所示:

Linux和Windows下elasticsearch安裝和使用ik分詞器
Linux和Windows下elasticsearch安裝和使用ik分詞器

Linux下安裝同理:

單節點與Windows相同操作

叢集:

1.停止叢集中所有機器的elasticsearch程序,在所有機器上做這些操作:在elasticsearch的plugins目錄下建立名為ik的目錄,再将下載下傳的elasticsearch-analysis-ik-7.6.2.zip壓縮包複制到這個新建立的ik目錄下;

2.在elasticsearch-analysis-ik-7.6.2.zip所在檔案夾下,執行目錄unzip elasticsearch-analysis-ik-7.6.2.zip進行解壓;

3.确認elasticsearch-analysis-ik-7.6.2.zip已經複制到每個elasticsearch的plugins/ik目錄下并解壓後,将所有elasticsearch啟動 ;

 elasticsearch head上測試:

POST desktop_message/_analyze

{
  "text": "我是測試分詞",
  "analyzer": "ik_max_word"
}
           

desktop_message為索引名稱

1、ik_max_word

會将文本做最細粒度的拆分,比如會将“中華人民共和國人民大會堂”拆分為“中華人民共和國、中華人民、中華、華人、人民共和國、人民、共和國、大會堂、大會、會堂等詞語。

2、ik_smart

會做最粗粒度的拆分,比如會将“中華人民共和國人民大會堂”拆分為中華人民共和國、人民大會堂。

結果:

{
  "tokens": [
    {
      "token": "我",
      "start_offset": 0,
      "end_offset": 1,
      "type": "CN_CHAR",
      "position": 0
    },
    {
      "token": "是",
      "start_offset": 1,
      "end_offset": 2,
      "type": "CN_CHAR",
      "position": 1
    },
    {
      "token": "測試",
      "start_offset": 2,
      "end_offset": 4,
      "type": "CN_WORD",
      "position": 2
    },
    {
      "token": "分詞",
      "start_offset": 4,
      "end_offset": 6,
      "type": "CN_WORD",
      "position": 3
    }
  ]
}
           

結果截圖:

Linux和Windows下elasticsearch安裝和使用ik分詞器

繼續閱讀