Python jieba库支持哪些分词模式
Admin 2022-07-28 群英技术资讯 941 次浏览
jieba是优秀的中文分词第三方库,由于中文文本之间每个汉字都是连续书写的,我们需要通过特定的手段来获得其中的每个词组,这种手段叫做分词,我们可以通过jieba库来完成这个过程。
jieba库的分词原理是利用了一个中文词库,将待分词的内容与分词词库对比,通过图结构和动态规则划分方法找到最大概率的词组。除了分词,jieba还提供增加自定义中文单词的功能。
将句子最精确地分开,适合文本分析;
把句子中所有可以成词的词语都扫描出来,速度非常快,但是不能解决歧义;
在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词
注:对中文分词来说,jieba库只需要一行代码即可。英文文本不存在分词问题
函数 | 描述 |
---|---|
jieba.lcut(s) | 精确模式,返回一个列表值 |
jieba.lcut(s,cut_all=True) | 全模式,返回一个列表值 |
jieba.lcut_for_search(s) | 搜索引擎模式,返回一个列表值 |
jieba.add_word(w) | 向分词词典中增加新词w |
首先你需要安装jieba库
pip install jieba
jieba.lcut(s)是最常用的中文分词函数,用于精确模式,将字符串分割成等量的中文词组。
import jieba ls = jieba.lcut("我愿意穿过璀璨繁星") print(ls)
jieba.lcut(s,cut_all=True)用于全模式,将字符串的所有分词可能列出来,冗余最大。
import jieba ls = jieba.lcut("人面不知何处去,桃花依旧笑春风", cut_all=True) print(ls)
jieba.lcut_for_search该模式首先执行精确模式,然后在对其中长词进一步分获得最终结果
import jieba ls1 = jieba.lcut("仰天大笑出门去我辈岂是蓬蒿人") ls = jieba.lcut_for_search("仰天大笑出门去我辈岂是蓬蒿人") print(ls1) print(ls)
import jieba ls = jieba.lcut_for_search("仰天大笑出门去我辈岂是蓬蒿人") print(ls) jieba.add_word("蓬蒿人") ls1 = jieba.lcut("仰天大笑出门去我辈岂是蓬蒿人") print(ls1)
小结:精确模式因为不产生冗余,最为常用。
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:mmqy2019@163.com进行举报,并提供相关证据,查实之后,将立刻删除涉嫌侵权内容。
猜你喜欢
这篇文章主要介绍了python的import 机制是怎么实现的,import有Python运行时的全局模块池的维护和搜索、解析与搜索模块路径的树状结构等作用,下文具体相关介绍需要的小伙伴可以参考一下
这篇文章主要介绍了解决Python报错问题[SSL: SSLV3_ALERT_HANDSHAKE_FAILURE],具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教
们经常会遇到这种情况,有一个数学函数,我们希望了解他的图像,这个时候使用python 的matplotlib就可以帮助我们,下面这篇文章主要介绍了利用Python Matlab绘制曲线图的相关资料,需要的朋友可以参考下
这篇文章主要介绍了python关于字典及遍历的常用方法,字典的键可以是字符串、整数、元组或字典。字典的值也可以是字符串、整数,文章围绕主题展开更多详细的内容,需要的小伙伴可以参考一下
这篇文章主要为大家介绍了pytest官方文档解读fixtures的调用方式,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步,早日升职加薪
成为群英会员,开启智能安全云计算之旅
立即注册Copyright © QY Network Company Ltd. All Rights Reserved. 2003-2020 群英 版权所有
增值电信经营许可证 : B1.B2-20140078 粤ICP备09006778号 域名注册商资质 粤 D3.1-20240008