阿里云-云小站(无限量代金券发放中)
【腾讯云】云服务器、云数据库、COS、CDN、短信等热卖云产品特惠抢购

Elasticsearch 2.2.0 分词篇:中文分词

451次阅读
没有评论

共计 6676 个字符,预计需要花费 17 分钟才能阅读完成。

在 Elasticsearch 中,内置了很多分词器(analyzers),但默认的分词器对中文的支持都不是太好。所以需要单独安装插件来支持,比较常用的是中科院 ICTCLAS 的 smartcn 和 IKAnanlyzer 效果还是不错的,但是目前 IKAnanlyzer 还不支持最新的 Elasticsearch2.2.0 版本,但是 smartcn 中文分词器默认官方支持,它提供了一个中文或混合中文英文文本的分析器。支持最新的 2.2.0 版本版本。但是 smartcn 不支持自定义词库,作为测试可先用一下。后面的部分介绍如何支持最新的版本。
 
smartcn

安装分词:plugin install analysis-smartcn

卸载:plugin remove analysis-smartcn

测试:

请求:POST http://127.0.0.1:9200/_analyze/

{
  “analyzer”: “smartcn”,
  “text”: “ 联想是全球最大的笔记本厂商 ”
}

返回结果:

 {
    “tokens”: [
        {
            “token”: “ 联想 ”,
            “start_offset”: 0,
            “end_offset”: 2,
            “type”: “word”,
            “position”: 0
        },
        {
            “token”: “ 是 ”,
            “start_offset”: 2,
            “end_offset”: 3,
            “type”: “word”,
            “position”: 1
        },
        {
            “token”: “ 全球 ”,
            “start_offset”: 3,
            “end_offset”: 5,
            “type”: “word”,
            “position”: 2
        },
        {
            “token”: “ 最 ”,
            “start_offset”: 5,
            “end_offset”: 6,
            “type”: “word”,
            “position”: 3
        },
        {
            “token”: “ 大 ”,
            “start_offset”: 6,
            “end_offset”: 7,
            “type”: “word”,
            “position”: 4
        },
        {
            “token”: “ 的 ”,
            “start_offset”: 7,
            “end_offset”: 8,
            “type”: “word”,
            “position”: 5
        },
        {
            “token”: “ 笔记本 ”,
            “start_offset”: 8,
            “end_offset”: 11,
            “type”: “word”,
            “position”: 6
        },
        {
            “token”: “ 厂商 ”,
            “start_offset”: 11,
            “end_offset”: 13,
            “type”: “word”,
            “position”: 7
        }
    ]
}
 

作为对比,我们看一下标准的分词的结果,在请求中巴 smartcn,换成 standard

然后看返回结果:

{
    “tokens”: [
        {
            “token”: “ 联 ”,
            “start_offset”: 0,
            “end_offset”: 1,
            “type”: “<IDEOGRAPHIC>”,
            “position”: 0
        },
        {
            “token”: “ 想 ”,
            “start_offset”: 1,
            “end_offset”: 2,
            “type”: “<IDEOGRAPHIC>”,
            “position”: 1
        },
        {
            “token”: “ 是 ”,
            “start_offset”: 2,
            “end_offset”: 3,
            “type”: “<IDEOGRAPHIC>”,
            “position”: 2
        },
        {
            “token”: “ 全 ”,
            “start_offset”: 3,
            “end_offset”: 4,
            “type”: “<IDEOGRAPHIC>”,
            “position”: 3
        },
        {
            “token”: “ 球 ”,
            “start_offset”: 4,
            “end_offset”: 5,
            “type”: “<IDEOGRAPHIC>”,
            “position”: 4
        },
        {
            “token”: “ 最 ”,
            “start_offset”: 5,
            “end_offset”: 6,
            “type”: “<IDEOGRAPHIC>”,
            “position”: 5
        },
        {
            “token”: “ 大 ”,
            “start_offset”: 6,
            “end_offset”: 7,
            “type”: “<IDEOGRAPHIC>”,
            “position”: 6
        },
        {
            “token”: “ 的 ”,
            “start_offset”: 7,
            “end_offset”: 8,
            “type”: “<IDEOGRAPHIC>”,
            “position”: 7
        },
        {
            “token”: “ 笔 ”,
            “start_offset”: 8,
            “end_offset”: 9,
            “type”: “<IDEOGRAPHIC>”,
            “position”: 8
        },
        {
            “token”: “ 记 ”,
            “start_offset”: 9,
            “end_offset”: 10,
            “type”: “<IDEOGRAPHIC>”,
            “position”: 9
        },
        {
            “token”: “ 本 ”,
            “start_offset”: 10,
            “end_offset”: 11,
            “type”: “<IDEOGRAPHIC>”,
            “position”: 10
        },
        {
            “token”: “ 厂 ”,
            “start_offset”: 11,
            “end_offset”: 12,
            “type”: “<IDEOGRAPHIC>”,
            “position”: 11
        },
        {
            “token”: “ 商 ”,
            “start_offset”: 12,
            “end_offset”: 13,
            “type”: “<IDEOGRAPHIC>”,
            “position”: 12
        }
    ]
}
 

    从中可以看出,基本上不能使用,就是一个汉字变成了一个词了。

本文由赛克 蓝德 (secisland) 原创,转载请标明作者和出处。
 
IKAnanlyzer 支持 2.2.0 版本

    目前 github 上最新的版本只支持 Elasticsearch2.1.1, 路径为 https://github.com/medcl/elasticsearch-analysis-ik。但现在最新的 Elasticsearch 已经到 2.2.0 了所以要经过处理一下才能支持。

1、下载源码,下载完后解压到任意目录,然后修改 elasticsearch-analysis-ik-master 目录下的 pom.xml 文件。找到 <elasticsearch.version> 行,然后把后面的版本号修改成 2.2.0。

2、编译代码 mvn package。

3、编译完成后会在 target\releases 生成 elasticsearch-analysis-ik-1.7.0.zip 文件。

4、解压文件到 Elasticsearch/plugins 目录下。

5、修改配置文件增加一行:index.analysis.analyzer.ik.type : “ik”

6、重启 Elasticsearch。

测试:和上面的请求一样,只是把分词替换成 ik

返回的结果:

{
    “tokens”: [
        {
            “token”: “ 联想 ”,
            “start_offset”: 0,
            “end_offset”: 2,
            “type”: “CN_WORD”,
            “position”: 0
        },
        {
            “token”: “ 全球 ”,
            “start_offset”: 3,
            “end_offset”: 5,
            “type”: “CN_WORD”,
            “position”: 1
        },
        {
            “token”: “ 最大 ”,
            “start_offset”: 5,
            “end_offset”: 7,
            “type”: “CN_WORD”,
            “position”: 2
        },
        {
            “token”: “ 笔记本 ”,
            “start_offset”: 8,
            “end_offset”: 11,
            “type”: “CN_WORD”,
            “position”: 3
        },
        {
            “token”: “ 笔记 ”,
            “start_offset”: 8,
            “end_offset”: 10,
            “type”: “CN_WORD”,
            “position”: 4
        },
        {
            “token”: “ 笔 ”,
            “start_offset”: 8,
            “end_offset”: 9,
            “type”: “CN_WORD”,
            “position”: 5
        },
        {
            “token”: “ 记 ”,
            “start_offset”: 9,
            “end_offset”: 10,
            “type”: “CN_CHAR”,
            “position”: 6
        },
        {
            “token”: “ 本厂 ”,
            “start_offset”: 10,
            “end_offset”: 12,
            “type”: “CN_WORD”,
            “position”: 7
        },
        {
            “token”: “ 厂商 ”,
            “start_offset”: 11,
            “end_offset”: 13,
            “type”: “CN_WORD”,
            “position”: 8
        }
    ]
}
 

从中可以看出,两个分词器分词的结果还是有区别的。

扩展词库,在 config\ik\custom 下在 mydict.dic 中增加需要的词组,然后重启 Elasticsearch,需要注意的是文件编码是 UTF-8 无 BOM 格式编码。

比如增加了赛克蓝德单词。然后再次查询:

请求:POST http://127.0.0.1:9200/_analyze/

参数:

{
  “analyzer”: “ik”,
  “text”: “ 赛克蓝德是一家数据安全公司 ”
}
 

返回结果:

{
    “tokens”: [
        {
            “token”: “ 赛克蓝德 ”,
            “start_offset”: 0,
            “end_offset”: 4,
            “type”: “CN_WORD”,
            “position”: 0
        },
        {
            “token”: “ 克 ”,
            “start_offset”: 1,
            “end_offset”: 2,
            “type”: “CN_WORD”,
            “position”: 1
        },
        {
            “token”: “ 蓝 ”,
            “start_offset”: 2,
            “end_offset”: 3,
            “type”: “CN_WORD”,
            “position”: 2
        },
        {
            “token”: “ 德 ”,
            “start_offset”: 3,
            “end_offset”: 4,
            “type”: “CN_CHAR”,
            “position”: 3
        },
        {
            “token”: “ 一家 ”,
            “start_offset”: 5,
            “end_offset”: 7,
            “type”: “CN_WORD”,
            “position”: 4
        },
        {
            “token”: “ 一 ”,
            “start_offset”: 5,
            “end_offset”: 6,
            “type”: “TYPE_CNUM”,
            “position”: 5
        },
        {
            “token”: “ 家 ”,
            “start_offset”: 6,
            “end_offset”: 7,
            “type”: “COUNT”,
            “position”: 6
        },
        {
            “token”: “ 数据 ”,
            “start_offset”: 7,
            “end_offset”: 9,
            “type”: “CN_WORD”,
            “position”: 7
        },
        {
            “token”: “ 安全 ”,
            “start_offset”: 9,
            “end_offset”: 11,
            “type”: “CN_WORD”,
            “position”: 8
        },
        {
            “token”: “ 公司 ”,
            “start_offset”: 11,
            “end_offset”: 13,
            “type”: “CN_WORD”,
            “position”: 9
        }
    ]
}

从上面的结果可以看出已经支持赛克蓝德单词了。

ElasticSearch 最新版本 2.20 发布下载了  http://www.linuxidc.com/Linux/2016-02/128166.htm

Linux 上安装部署 ElasticSearch 全程记录  http://www.linuxidc.com/Linux/2015-09/123241.htm

Elasticsearch 安装使用教程 http://www.linuxidc.com/Linux/2015-02/113615.htm

ElasticSearch 配置文件译文解析 http://www.linuxidc.com/Linux/2015-02/114244.htm

ElasticSearch 集群搭建实例  http://www.linuxidc.com/Linux/2015-02/114243.htm

分布式搜索 ElasticSearch 单机与服务器环境搭建  http://www.linuxidc.com/Linux/2012-05/60787.htm

ElasticSearch 的工作机制  http://www.linuxidc.com/Linux/2014-11/109922.htm 

使用 Elasticsearch + Logstash + Kibana 搭建日志集中分析平台实践  http://www.linuxidc.com/Linux/2015-12/126587.htm

ElasticSearch 的详细介绍:请点这里
ElasticSearch 的下载地址:请点这里

本文永久更新链接地址:http://www.linuxidc.com/Linux/2016-02/128596.htm

正文完
星哥玩云-微信公众号
post-qrcode
 0
星锅
版权声明:本站原创文章,由 星锅 于2022-01-21发表,共计6676字。
转载说明:除特殊说明外本站文章皆由CC-4.0协议发布,转载请注明出处。
【腾讯云】推广者专属福利,新客户无门槛领取总价值高达2860元代金券,每种代金券限量500张,先到先得。
阿里云-最新活动爆款每日限量供应
评论(没有评论)
验证码
【腾讯云】云服务器、云数据库、COS、CDN、短信等云产品特惠热卖中

星哥玩云

星哥玩云
星哥玩云
分享互联网知识
用户数
4
文章数
19351
评论数
4
阅读量
7978911
文章搜索
热门文章
星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛NAS-6:抖音视频同步工具,视频下载自动下载保存

星哥带你玩飞牛 NAS-6:抖音视频同步工具,视频下载自动下载保存 前言 各位玩 NAS 的朋友好,我是星哥!...
星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛NAS-3:安装飞牛NAS后的很有必要的操作

星哥带你玩飞牛 NAS-3:安装飞牛 NAS 后的很有必要的操作 前言 如果你已经有了飞牛 NAS 系统,之前...
我把用了20年的360安全卫士卸载了

我把用了20年的360安全卫士卸载了

我把用了 20 年的 360 安全卫士卸载了 是的,正如标题你看到的。 原因 偷摸安装自家的软件 莫名其妙安装...
再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见zabbix!轻量级自建服务器监控神器在Linux 的完整部署指南

再见 zabbix!轻量级自建服务器监控神器在 Linux 的完整部署指南 在日常运维中,服务器监控是绕不开的...
飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛NAS中安装Navidrome音乐文件中文标签乱码问题解决、安装FntermX终端

飞牛 NAS 中安装 Navidrome 音乐文件中文标签乱码问题解决、安装 FntermX 终端 问题背景 ...
阿里云CDN
阿里云CDN-提高用户访问的响应速度和成功率
随机文章
星哥带你玩飞牛NAS-2:飞牛配置RAID磁盘阵列

星哥带你玩飞牛NAS-2:飞牛配置RAID磁盘阵列

星哥带你玩飞牛 NAS-2:飞牛配置 RAID 磁盘阵列 前言 大家好,我是星哥之前星哥写了《星哥带你玩飞牛 ...
终于收到了以女儿为原型打印的3D玩偶了

终于收到了以女儿为原型打印的3D玩偶了

终于收到了以女儿为原型打印的 3D 玩偶了 前些日子参加某网站活动,获得一次实物 3D 打印的机会,于是从众多...
星哥带你玩飞牛NAS-7:手把手教你免费内网穿透-Cloudflare tunnel

星哥带你玩飞牛NAS-7:手把手教你免费内网穿透-Cloudflare tunnel

星哥带你玩飞牛 NAS-7:手把手教你免费内网穿透 -Cloudflare tunnel 前言 大家好,我是星...
开发者福利:免费 .frii.site 子域名,一分钟申请即用

开发者福利:免费 .frii.site 子域名,一分钟申请即用

  开发者福利:免费 .frii.site 子域名,一分钟申请即用 前言 在学习 Web 开发、部署...
星哥带你玩飞牛NAS-1:安装飞牛NAS

星哥带你玩飞牛NAS-1:安装飞牛NAS

星哥带你玩飞牛 NAS-1:安装飞牛 NAS 前言 在家庭和小型工作室场景中,NAS(Network Atta...

免费图片视频管理工具让灵感库告别混乱

一言一句话
-「
手气不错
免费无广告!这款跨平台AI RSS阅读器,拯救你的信息焦虑

免费无广告!这款跨平台AI RSS阅读器,拯救你的信息焦虑

  免费无广告!这款跨平台 AI RSS 阅读器,拯救你的信息焦虑 在算法推荐主导信息流的时代,我们...
星哥带你玩飞牛 NAS-10:备份微信聊天记录、数据到你的NAS中!

星哥带你玩飞牛 NAS-10:备份微信聊天记录、数据到你的NAS中!

星哥带你玩飞牛 NAS-10:备份微信聊天记录、数据到你的 NAS 中! 大家对「数据安全感」的需求越来越高 ...
多服务器管理神器 Nexterm 横空出世!NAS/Win/Linux 通吃,SSH/VNC/RDP 一站式搞定

多服务器管理神器 Nexterm 横空出世!NAS/Win/Linux 通吃,SSH/VNC/RDP 一站式搞定

多服务器管理神器 Nexterm 横空出世!NAS/Win/Linux 通吃,SSH/VNC/RDP 一站式搞...
告别Notion焦虑!这款全平台开源加密笔记神器,让你的隐私真正“上锁”

告别Notion焦虑!这款全平台开源加密笔记神器,让你的隐私真正“上锁”

  告别 Notion 焦虑!这款全平台开源加密笔记神器,让你的隐私真正“上锁” 引言 在数字笔记工...
星哥带你玩飞牛NAS-12:开源笔记的进化之路,效率玩家的新选择

星哥带你玩飞牛NAS-12:开源笔记的进化之路,效率玩家的新选择

星哥带你玩飞牛 NAS-12:开源笔记的进化之路,效率玩家的新选择 前言 如何高效管理知识与笔记,已经成为技术...