【3-1】实验——hanlp和jieba常用方法

一.下载pyhanlp

1.打开conda使用如下语句

conda install -c conda-forge openjdk python=3.8 jpype1=0.7.0 -y
pip install pyhanlp

附:提供了一个安装教程 

index of /book/intro_nlp/安装包/ - 蝴蝶效应网盘 (hankcs.com)

 二.安装中的特殊情况

 2.(特殊情况)下载完成后打开jupyter notebook后,使用pyhanlp,产生了自动更新

【3-1】实验——hanlp和jieba常用方法_第1张图片

三、 实验

代码 

from pyhanlp import *

print(HanLP.segment('你好,欢迎在Python中调用HanLP的API'))  
for term in HanLP.segment('下雨天地面积水'):  
    print('{}\t{}'.format(term.word, term.nature)) # 获取单词与词性  
testCases = [  
    "商品和服务",  
    "结婚的和尚未结婚的确实在干扰分词啊",  
    "买水果然后来世博园最后去世博会",  
    "中国的首都是北京",  
    "欢迎新老师生前来就餐",  
    "工信处女干事每月经过下属科室都要亲口交代24口交换机等技术性器件的安装工作",  
    "随着页游兴起到现在的页游繁盛,依赖于存档进行逻辑判断的设计减少了,但这块也不能完全忽略掉。"]  
for sentence in testCases: print(HanLP.segment(sentence))  

结果展示

【3-1】实验——hanlp和jieba常用方法_第2张图片

四、jieba使用方法实验

1.下载jieba

pip install jieba

2.实验代码

# encoding=utf-8  
import jieba  
  
seg_list = jieba.cut("我来到北京清华大学", cut_all=True)  
print("Full Mode: " + "/ ".join(seg_list))  # 全模式  
print(seg_list)  

text1 = '李小福是创新办主任也是云计算方面的专家'  
jieba.load_userdict('userdict.txt') # file_name为自定义词典的路径  
seg_list1 = jieba.cut(text1, cut_all=False)  
print("/ ".join(seg_list1))  

3.结果

你可能感兴趣的:(知识图谱实战6+3天,数据库,自然语言处理)