IK中文分词插件与动态更新词典
更新时间:2020-08-27
IK中文分词插件(英文名为analysis-ik)是百度智能云Elasticsearch默认安装的中文分词插件。
本文介绍了IK 中文分词插件的使用方法和动态更新IK词典的方法。
使用方法
分词粒度
analysis-ik主要提供两种粒度的Analyzer
:
- ik_max_word:会将文本做最细粒度的拆分;尽可能多的拆分出词语
- ik_smart:会做最粗粒度的拆分;已被分出的词语将不会再次被其它词语占有
同名提供两种Tokenizer
:
- ik_max_word
- ik_smart
切词效果
ik_max_word的切词效果如下:
POST /_analyze
{
"analyzer": "ik_max_word",
"text": "百度校园夏令营"
}
{
"tokens": [
{
"token": "百度",
"start_offset": 0,
"end_offset": 2,
"type": "CN_WORD",
"position": 0
},
{
"token": "百",
"start_offset": 0,
"end_offset": 1,
"type": "TYPE_CNUM",
"position": 1
},
{
"token": "度",
"start_offset": 1,
"end_offset": 2,
"type": "COUNT",
"position": 2
},
{
"token": "校园",
"start_offset": 2,
"end_offset": 4,
"type": "CN_WORD",
"position": 3
},
{
"token": "夏令营",
"start_offset": 4,
"end_offset": 7,
"type": "CN_WORD",
"position": 4
},
{
"token": "夏令",
"start_offset": 4,
"end_offset": 6,
"type": "CN_WORD",
"position": 5
},
{
"token": "夏",
"start_offset": 4,
"end_offset": 5,
"type": "CN_WORD",
"position": 6
},
{
"token": "令",
"start_offset": 5,
"end_offset": 6,
"type": "CN_CHAR",
"position": 7
},
{
"token": "营",
"start_offset": 6,
"end_offset": 7,
"type": "CN_CHAR",
"position": 8
}
]
}
ik_smart的切词效果如下:
POST /_analyze
{
"analyzer": "ik_smart",
"text": "百度校园夏令营"
}
{
"tokens": [
{
"token": "百度",
"start_offset": 0,
"end_offset": 2,
"type": "CN_WORD",
"position": 0
},
{
"token": "校园",
"start_offset": 2,
"end_offset": 4,
"type": "CN_WORD",
"position": 1
},
{
"token": "夏令营",
"start_offset": 4,
"end_offset": 7,
"type": "CN_WORD",
"position": 2
}
]
}
动态更新词典
配置词典
当IK自身带的词库不满足需求时,用户可以自己定义词库。步骤如下:
- 用户把编辑好的词库放到一个http服务器上。需要注意的是,务必保证Elasticsearch所在节点能够访问该http服务,否则无法下载安装。
- 用户在Elasticsearch里配置ik词库的http地址,比如自定义词库的配置文件是baidu.dict,停用词的配置文件是baidu_stop.dic时,我们向Elasticsearch发送的命令如下:
PUT /_cluster/settings
{
"persistent": {
"bpack.ik_analyzer.remote_ext_dict":"http://ip:port/baidu.dic",
"bpack.ik_analyzer.remote_ext_stopwords":"http://ip:port/baidu_stop.dic"
}
}
- Elasticsearch会每隔60s检测一下setting中http url指向的词库文件是否发生变化,如果变化了,那么es就会自动下载这个文件,然后加载到ik中。
验证词库是否生效
当配置好后,用户可以通过POST /_analyze
来检测词库是否生效,比如:
- 在没有配置词库之前,我们发送命令:
POST /_analyze
{
"analyzer" : "ik_smart",
"text" : ["赵小明明真帅"]
}
Elasticsearch的返回结果是:
{
"tokens": [
{
"token": "赵",
"start_offset": 0,
"end_offset": 1,
"type": "CN_WORD",
"position": 0
},
{
"token": "小明",
"start_offset": 1,
"end_offset": 3,
"type": "CN_WORD",
"position": 1
},
{
"token": "明",
"start_offset": 3,
"end_offset": 4,
"type": "CN_WORD",
"position": 2
},
{
"token": "真帅",
"start_offset": 4,
"end_offset": 6,
"type": "CN_WORD",
"position": 3
}
]
}
- 然后我们配置一下词库,其中正常词库里只包含 "赵小明明", 停用词词库中包含 "真帅",配置完之后,我们再次调用
POST /_analyze
,结果如下:
{
"tokens": [
{
"token": "赵小明明",
"start_offset": 0,
"end_offset": 4,
"type": "CN_WORD",
"position": 0
}
]
}
结果显示, “赵小明明” 被当做一个单独的词,而 "真帅" 由于是停用词所以没有被分词。