Jieba库的使用
jieba库的概述jieba是Python中一个重要的第三方中文分词函数库
·
目录
jieba库的概述
jieba 是优秀的中文分词第三方库
- 中文文本需要通过分词获得单个的词语
- jieba是优秀的中文分词第三方库,需要额外安装
- jieba库提供三种分词模式,最简单只需掌握一个函数

jieba库的安装
jieba库是第三方库,不是安装包自带,需要通过pip指令安装
:\>pip install jieba # 或者 pip3 install jieba
参考链接:Jieba库的安装
jieba分词的原理
jieba 分词依靠中文词库
- 利用一个中文词库,确定中文字符之间的关联概率
- 中文字符间概率大的组成词组,形成分词结果
- 除了分词,用户还可以添加自定义的词组
jieba库使用说明
jieba分词的三种模式
精确模式、全模式、搜索引擎模式
- 精确模式:把文本精确的切分开,不存在冗余单词
- 全模式:把文本中所有可能的词语都扫描出来,有冗余
- 搜索引擎模式:在精确模式基础上,对长词再次切分
jieba库常用分词函数
|
函数 |
描述 |
|
jieba.cut(s) |
精确模式,返回一个可迭代的数据类型 |
|
jieba.cut(s, cut_all=True) |
全模式,输出文本s中所有可能单词 |
|
jieba.cut_for_search(s) |
搜索引擎模式,适合搜索引擎建立索引的分词结果 |
|
jieba.lcut(s) |
精确模式,返回一个列表类型的分词结果
>>> jieba.lcut( " 中国是一个伟大的国家 " )
[' 中国 ', ' 是 ', ' 一个 ', ' 伟大 ', ' 的 ', ' 国家 ']
|
|
jieba.lcut(s, cut_all=True) |
全模式,返回一个列表类型的分词结果,存在冗余
>>> jieba.lcut( " 中国是一个伟大的国家 " ,cut_all=True)
[' 中国 ', ' 国是 ', ' 一个 ', ' 伟大 ', ' 的 ', ' 国家 ']
|
|
jieba.lcut_for_search(s) |
搜索引擎模式,返回一个列表类型的分词结果,存在冗余
>>> jieba.lcut_for_search( “ 中华人民共和国是伟大的 " )
[' 中华 ', ' 华人 ', ' 人民 ', ' 共和 ', ' 共和国 ', ' 中华人民共
和国 ', ' 是 ', ' 伟大 ', ' 的 ']
|
|
jieba.add_word(w) |
向分词词典增加新词w
>>> jieba.add_word( " 蟒蛇语言 " )
|
其实最最常用的就是jieba.lcut(s)
推荐阅读:

更多推荐


所有评论(0)