jieba库是一个用于中文分词的工具库。下面是一些常见的jieba库函数用法示例:
分词import jieba# 全模式分词text = "我爱自然语言处理"result = jieba.cut(text, cut_all=True)print("/".join(result)) # 输出:我/爱/自然/自然语言/语言/处理# 精确模式分词result = jieba.cut(text, cut_all=False)print("/".join(result)) # 输出:我/爱/自然语言处理# 默认模式分词(精确模式的别名)result = jieba.cut(text)print("/".join(result)) # 输出:我/爱/自然语言处理# 搜索引擎模式分词result = jieba.cut_for_search(text)print("/".join(result)) # 输出:我/爱/自然/语言/处理添加自定义词典import jiebatext = "我是自然语言处理工程师"result = jieba.cut(text)print("/".join(result)) # 输出:我/是/自然/语言/处理/工程师# 添加自定义词典jieba.add_word("自然语言处理")result = jieba.cut(text)print("/".join(result)) # 输出:我/是/自然语言处理/工程师# 添加自定义词典(指定词频)jieba.add_word("自然语言处理", freq=100)result = jieba.cut(text)print("/".join(result)) # 输出:我/是/自然语言处理/工程师关键词提取import jieba.analysetext = "我是一名自然语言处理工程师,对文本处理很感兴趣。"keywords = jieba.analyse.extract_tags(text, topK=3)print(keywords) # 输出:['自然语言处理', '文本处理', '感兴趣']以上是jieba库的一些常见用法,更多详细的函数用法可以参考jieba官方文档。

