zoukankan      html  css  js  c++  java
  • 自然语言处理--jieba和gensim的分词功能

    一、jieba分词功能

    1、主要模式

    支持三种分词模式:

    • 精确模式,试图将句子最精确地切开,适合文本分析;

    • 全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义;

    • 搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词。 支持繁体分词

    支持自定义词典 

    2、算法

    • 基于前缀词典实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图 (DAG)

    • 采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合

    • 对于未登录词,采用了基于汉字成词能力的 HMM 模型,使用了 Viterbi 算法 

    3、主要功能

    • jieba.cut

      方法接受三个输入参数: 需要分词的字符串;cut_all 参数用来控制是否采用全模式;HMM 参数用来控制是否使用 HMM 模型

    • jieba.cut_for_search

      方法接受两个参数:需要分词的字符串;是否使用 HMM 模型。该方法适合用于搜索引擎构建倒排索引的分词,粒度比较细 待分词的字符串可以是 unicode 或 UTF-8 字符串、GBK 字符串。注意:不建议直接输入 GBK 字符串,可能无法预料地错误解码成 UTF-8

    • jieba.Tokenizer(dictionary=DEFAULT_DICT)

      新建自定义分词器,可用于同时使用不同词典。jieba.dt 为默认分词器,所有全局分词相关函数都是该分词器的映射。

    • 载入词典
    用法: jieba.load_userdict(file_name) # file_name 为文件类对象或自定义词典的路径
       词典格式和 dict.txt
       一样,一个词占一行;每一行分三部分:词语、词频(可省略)、词性(可省略),用空格隔开,顺序不可颠倒。file_name
       若为路径或二进制方式打开的文件,则文件必须为 UTF-8 编码。 词频省略时使用自动计算的能保证分出该词的词频。
    • 调整词典。
    使用 add_word(word, freq=None, tag=None) 和 del_word(word)
       可在程序中动态修改词典。
       使用 suggest_freq(segment, tune=True) 可调节单个词语的词频,使其能(或不能)被分出来。
       注意:自动计算的词频在使用 HMM 新词发现功能时可能无效。
    • 基于 TF-IDF 算法的关键词抽取
    import jieba.analyse
    
    jieba.analyse.extract_tags(sentence, topK=20, withWeight=False, allowPOS=())
    sentence 为待提取的文本
    topK 为返回几个 TF/IDF 权重最大的关键词,默认值为 20
    withWeight 为是否一并返回关键词权重值,默认值为 False
    allowPOS 仅包括指定词性的词,默认值为空,即不筛选
    jieba.analyse.TFIDF(idf_path=None) 新建 TFIDF 实例,idf_path 为 IDF 频率文件
    • 基于 TextRank 算法的关键词抽取
    jieba.analyse.textrank(sentence, topK=20, withWeight=False, allowPOS=('ns', 'n', 'vn', 'v')) 直接使用,接口相同,注意默认过滤词性。
    jieba.analyse.TextRank() 新建自定义 TextRank 实例
    • 词性标注
    jieba.posseg.POSTokenizer(tokenizer=None) 新建自定义分词器,tokenizer 参数可指定内部使用的 jieba.Tokenizer 分词器。jieba.posseg.dt 为默认词性标注分词器。
    标注句子分词后每个词的词性,采用和 ictclas 兼容的标记法。
    • 并行分词
    基于 python 自带的 multiprocessing 模块,目前暂不支持 Windows
    用法:
    
    jieba.enable_parallel(4) # 开启并行分词模式,参数为并行进程数
    jieba.disable_parallel() # 关闭并行分词模式

    应用一:自定义词典或特定词识别

      自定义词典加入方式一:

    import jieba
    jieba.load_userdict("userdict.txt")

      自定义词典的格式为词语-词频-词性,其中词频与词性可以没有:

    云计算 5
    李小福 2 nr
    创新办 3 i
    easy_install 3 eng
    好用 300

      自定义词加入方式二:

    • add_word(word, freq=None, tag=None) 和 del_word(word) 可在程序中动态修改词典。
    • suggest_freq(segment, tune=True) 可调节单个词语的词频,使其能(或不能)被分出来。
    >>> print('/'.join(jieba.cut('如果放到post中将出错。', HMM=False)))
    如果/放到/post/中将/出错/>>> jieba.suggest_freq(('', ''), True)
    494
    >>> jieba.add_word(('中将'), freq = 500)

    应用二:关键词提取

    import jieba.analyse
    text = '新媒体运营如何提升自己的写作能力'
    
    # 添加新词
    word = '新媒体运营'
    jieba.suggest_freq((word), True)
    jieba.add_word(word, freq=100, tag='get')
    
    # 利用idf进行关键词提取
    jieba.analyse.set_idf_path("/mnt/gensim/jieba-master/idf.txt.big")
    print ' '.join(jieba.analyse.extract_tags(text, topK=100, withWeight=False, allowPOS=('get','n','ns','vn')))

      jieba.analyse.set_idf_path()可以在关键词提取时,进行IDF设置,一般来说,IDF设置大一些,露出机会就多一些。 
      add_word()此时可以自定义一种词性,这样就可以达到特定领域词的提取。

      此时还可以设置停用词:

     jieba.analyse.set_stop_words(file_name) 

      格式为:

    the
    of
    is
    and
    to
    in
    that
    we

    二、gensim的doc2bow实现词袋模型

      词袋模型不做过多介绍,直接来个案例

    from gensim import corpora, models, similarities
    raw_documents = [  
        '0无偿居间介绍买卖毒品的行为应如何定性',  
        '1吸毒男动态持有大量毒品的行为该如何认定',  
        '2如何区分是非法种植毒品原植物罪还是非法制造毒品罪',  
        '3为毒贩贩卖毒品提供帮助构成贩卖毒品罪',  
        '4将自己吸食的毒品原价转让给朋友吸食的行为该如何认定',  
        '5为获报酬帮人购买毒品的行为该如何认定',  
        '6毒贩出狱后再次够买毒品途中被抓的行为认定',  
        '7虚夸毒品功效劝人吸食毒品的行为该如何认定',  
        '8妻子下落不明丈夫又与他人登记结婚是否为无效婚姻',  
        '9一方未签字办理的结婚登记是否有效',  
        '10夫妻双方1990年按农村习俗举办婚礼没有结婚证 一方可否起诉离婚',  
        '11结婚前对方父母出资购买的住房写我们二人的名字有效吗',  
        '12身份证被别人冒用无法登记结婚怎么办?',  
        '13同居后又与他人登记结婚是否构成重婚罪',  
        '14未办登记只举办结婚仪式可起诉离婚吗',  
        '15同居多年未办理结婚登记,是否可以向法院起诉要求离婚'  
    ]

      载入中文数据以及对应的包,corpora是构造词典的, similarities求相似性可以用得到。

    texts = [[word for word in jieba.cut(document, cut_all=True)] for document in raw_documents]

      将词语进行分词,并进行存储。

    dictionary = corpora.Dictionary(texts)

      寻找整篇语料的词典、所有词,corpora.Dictionary。

    corpus = [dictionary.doc2bow(text) for text in texts]

      建立语料之后,分支一:BOW词袋模型;分支二:建立TFIDF。 

      分之一:BOW词袋模型

      由doc2bow变为词袋,输出的格式为:

    [[(0, 1), (1, 1), (2, 1), (3, 1), (4, 1), (5, 1), (6, 1)], [(0, 1), (4, 1), (5, 1), (7, 1), (8, 1), (9, 2), (10, 1)], [(0, 1), (3, 1), (4, 1), (5, 1), (6, 1), (7, 1), (10, 1)]]

      例如(9,2)这个元素代表第二篇文档中id为9的单词“silver”出现了2次。 

      分支二:建立TFIDF

    tfidf = models.TfidfModel(corpus)

      使用tf-idf 模型得出该评论集的tf-idf 模型

    corpus_tfidf = tfidf[corpus]  

      此处已经计算得出所有评论的tf-idf 值

      在TFIDF的基础上,进行相似性检索。

    similarity = similarities.Similarity('Similarity-tfidf-index', corpus_tfidf, num_features=600)  

      然后进行similarity检索。

    print(similarity[test_corpus_tfidf_1])  # 返回最相似的样本材料,(index_of_document, similarity) tuples  

      当然其中的test_corpus_tfidf_1需要进行预先处理。先变为dow2bow,然后tfidf 

    情况一:新的句子

    new_sensence = "16通过下面一句得到语料中每一篇文档对应的稀疏向量"
    test_corpus_1 = dictionary.doc2bow(jieba.cut(raw_documents[1], cut_all=True))
    vec_tfidf = tfidf[test_corpus_1]

    利用doc2bow对其进行分割,然后求tfidf模型。输出的结果即为:

    vec_tfidf
    Out[82]: 
    [(1, 0.09586155438319434),
     (5, 0.1356476941913782),
     (6, 0.09586155438319434),
     (8, 0.1356476941913782),
     (11, 0.19172310876638868),
     (12, 0.38344621753277736),
     (13, 0.38344621753277736),
     (14, 0.38344621753277736),
     (15, 0.16086258119086566),
     (16, 0.38344621753277736),
     (17, 0.38344621753277736),
     (18, 0.38344621753277736)]

    情况二:tfidf模型的保存与内容查看

    for item in corpus_tfidf: 
        print(item) 
    tfidf.save("data.tfidf") 
    tfidf = models.TfidfModel.load("data.tfidf") 
    print(tfidf_model.dfs) 

    案例一: 
    test_corpus是语料,通过bow2vec函数向量格式更改为:[0.1,0.2,0,0,0,0,…,0.9]

    import jieba
    from gensim import corpora, models, similarities
    import numpy as np
    from tqdm import tqdm
    
    texts = [[word for word in jieba.cut(document, cut_all=True)] for document in test_corpus]
    dictionary = corpora.Dictionary(texts)
    corpus = [dictionary.doc2bow(text) for text in texts]
    tfidf = models.TfidfModel(corpus)
    corpus_tfidf =tfidf[corpus]  
    
    def bow2vec(corpus_tfidf,dictionary):
        vec = []
        length = max(dictionary) + 1
        for content in tqdm(corpus_tfidf):
            sentense_vectors = np.zeros(length)
            for co in content:
                sentense_vectors[co[0]]=co[1]
            vec.append(sentense_vectors)
        return vec
    
    svec = bow2vec(corpus_tfidf,dictionary)

    文章转自: https://blog.csdn.net/sinat_26917383/article/details/71436563

  • 相关阅读:
    2019 苏宁控股java面试笔试题 (含面试题解析)
    2019 58同城java面试笔试题 (含面试题解析)
    2019 搜狐java面试笔试题 (含面试题解析)
    2019 拼多多java面试笔试题 (含面试题解析)
    2019 新浪 java面试笔试题 (含面试题解析)
    doubango(2)--底层协议栈结构分析
    doubango(1)--从协议栈结构说起
    doubango简介
    WebRTC VoiceEngine使用简单Demo
    WebRTC音视频引擎研究(2)--VoiceEngine音频编解码器数据结构以及参数设置
  • 原文地址:https://www.cnblogs.com/zongfa/p/9556864.html
Copyright © 2011-2022 走看看