zoukankan      html  css  js  c++  java
  • 自然语言处理随笔(一)

    安装jieba中文分词命令:pip install jieba

    简单的例子:

    import jieba
    seg_list = jieba.cut("我来到北京清华大学", cut_all=True)
    print("Full Mode:", "/ ".join(seg_list)) # 全模式
    seg_list = jieba.cut("我来到北京清华大学", cut_all=False)
    print("Default Mode:", "/ ".join(seg_list)) # 精确模式
    seg_list = jieba.cut("他来到了网易杭研大厦") # 默认是精确模式
    print(", ".join(seg_list))
    seg_list = jieba.cut_for_search("小明硕士毕业于中国科学院计算所,后在日本京都大学深造") # 搜索引擎模式
    print(", ".join(seg_list))

    结果:

    Full Mode: 我/ 来到/ 北京/ 清华/ 清华大学/ 华大/ 大学
    Default Mode: 我/ 来到/ 北京/ 清华大学
    他, 来到, 了, 网易, 杭研, 大厦
    小明, 硕士, 毕业, 于, 中国, 科学, 学院, 科学院, 中国科学院, 计算, 计算所, ,, 后, 在, 日本, 京都, 大学, 日本京都大学, 深造
  • 相关阅读:
    Python批量删除字符串中两个字符中间值
    2020年大三下学期第十周学习心得
    2020年大三下学期第九周学习心得
    2020.2.4
    2020.2.3
    2020.2.2
    2020.2.1
    签到六(开发)
    签到五(开发)
    签到四(开发)
  • 原文地址:https://www.cnblogs.com/andzery/p/7237212.html
Copyright © 2011-2022 走看看