十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
这篇文章给大家介绍elasticsearch中如何使用ik中文分词器,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。
我们提供的服务有:成都网站建设、成都网站设计、微信公众号开发、网站优化、网站认证、衡南ssl等。为成百上千企事业单位解决了网站和推广的问题。提供周到的售前咨询和贴心的售后服务,是有科学管理、有技术的衡南网站制作公司
# 下载地址 https://github.com/medcl/elasticsearch-analysis-ik/releases
直接从网络地址安装
cd /Users/huan/soft/elastic-stack/es/es02/bin # 下载插件 ./elasticsearch-plugin -v install https://github.com/medcl/elasticsearch-analysis-ik/releases/download/v7.12.0/elasticsearch-analysis-ik-7.12.0.zip # 查看插件是否下载成功 ./elasticsearch-plugin list
从本地安装
cd /Users/huan/soft/elastic-stack/es/es02/bin # 下载插件(file后面跟的是插件在本地的地址) ./elasticsearch-plugin install file:///path/to/plugin.zip
注意:
如果本地插件的路径中存在空格,需要使用双引号包装起来。
# 查找es进程 jps -l | grep 'Elasticsearch' # 杀掉es进程 kill pid # 启动es /Users/huan/soft/elastic-stack/es/es01/bin/elasticsearch -d -p pid01
ik
分词器提供了2种分词的模式
ik_max_word
: 将需要分词的文本做最小粒度的拆分,尽量分更多的词。
ik_smart
: 将需要分词的文本做最大粒度的拆分。
语句
GET _analyze { "analyzer": "default", "text": ["中文分词语"] }
结果
{ "tokens" : [ { "token" : "中", "start_offset" : 0, "end_offset" : 1, "type" : "", "position" : 0 }, { "token" : "文", "start_offset" : 1, "end_offset" : 2, "type" : " ", "position" : 1 }, { "token" : "分", "start_offset" : 2, "end_offset" : 3, "type" : " ", "position" : 2 }, { "token" : "词", "start_offset" : 3, "end_offset" : 4, "type" : " ", "position" : 3 }, { "token" : "语", "start_offset" : 4, "end_offset" : 5, "type" : " ", "position" : 4 } ] }
可以看到默认的分词器,对中文的分词完全无法达到我们中文的分词的效果。
语句
GET _analyze { "analyzer": "ik_max_word", "text": ["中文分词语"] }
结果
{ "tokens" : [ { "token" : "中文", "start_offset" : 0, "end_offset" : 2, "type" : "CN_WORD", "position" : 0 }, { "token" : "分词", "start_offset" : 2, "end_offset" : 4, "type" : "CN_WORD", "position" : 1 }, { "token" : "词语", "start_offset" : 3, "end_offset" : 5, "type" : "CN_WORD", "position" : 2 } ] }
可以看到基于ik
分词可以达到我们需要的分词效果。
语句
GET _analyze { "analyzer": "ik_smart", "text": ["中文分词语"] }
结果
{ "tokens" : [ { "token" : "中文", "start_offset" : 0, "end_offset" : 2, "type" : "CN_WORD", "position" : 0 }, { "token" : "分", "start_offset" : 2, "end_offset" : 3, "type" : "CN_CHAR", "position" : 1 }, { "token" : "词语", "start_offset" : 3, "end_offset" : 5, "type" : "CN_WORD", "position" : 2 } ] }
${IK_HOME}/config/analysis-ik /Users/huan/soft/elastic-stack/es/es01/config/analysis-ik
IK Analyzer 扩展配置 custom-ext.dic custom-stop.dic
注意:
1、自定义分词的文件必须是UTF-8
的编码。
1、修改 IKAnalyzer.cfg.xml 文件,配置远程字典。
$ cat /Users/huan/soft/elastic-stack/es/es01/config/analysis-ik/IKAnalyzer.cfg.xml 11.87s 16.48G 2.68 IK Analyzer 扩展配置 http://localhost:8686/custom-ext.dic
注意:
1、此处的 custom-ext.dic
文件在下方将会配置到 nginx
中,保证可以访问。
2、http 请求需要返回两个头部(header),一个是 Last-Modified,一个是 ETag,这两者都是字符串类型,只要有一个发生变化,该插件就会去抓取新的分词进而更新词库。
3、http 请求返回的内容格式是一行一个分词,换行符用 \n 即可。 4、在 nginx 的目录下放置一个 custom-ext.dic
文件
多次修改 custom-ext.dic 文件,可以看到分词的结果也会实时变化,如此就实现了分词的热更新。
关于elasticsearch中如何使用ik中文分词器就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。