zoukankan      html  css  js  c++  java
  • 【火炉炼AI】机器学习042-NLP文本的主题建模

    【火炉炼AI】机器学习042-NLP文本的主题建模

    (本文所使用的Python库和版本号: Python 3.6, Numpy 1.14, scikit-learn 0.19, matplotlib 2.2, NLTK 3.3)

    文本的主题建模时用NLP来识别文本文档中隐藏的某种模式的过程,可以发现该文档的隐藏主题,以便对文档进行分析。主题建模的实现过程是,识别出某文本文档中最有意义,最能表征主题的词来实现主题分类,即寻找文本文档中的关键词,通过关键词就可以识别出某文档的隐藏主题。


    1. 准备数据集

    本次所用的数据集存放在一个txt文档中,故而需要从txt文档中加载该文本内容,然后再对这些文本进行预处理。由于预处理的步骤比较多,故而此处建立一个class来完成数据的加载和预处理过程,也使得代码看起来更简洁,更通用。

    # 准备数据集,建一个class来加载数据集,对数据进行预处理
    from nltk.tokenize import RegexpTokenizer
    from nltk.corpus import stopwords
    from nltk.stem.snowball import SnowballStemmer
    from gensim import models, corpora
    
    class DataSet:
        
        def __init__(self,txt_file_path):
            self.__txt_file=txt_file_path
        
        def __load_txt(self): # 从txt文档中加载文本内容,逐行读入
            with open(self.__txt_file,'r') as file:
                content=file.readlines() # 一次性将所有的行都读入
            return [line[:-1] for line in content] # 去掉每一行末尾的
    
        
        def __tokenize(self,lines_list): # 预处理之一:对每一行文本进行分词
            tokenizer=RegexpTokenizer('w+') 
            # 此处用正则表达式分词器而不用word_tokenize的原因是:排除带有标点的单词
            return [tokenizer.tokenize(line.lower()) for line in lines_list]
        
        def __remove_stops(self,lines_list): # 预处理之二:对每一行取出停用词
            # 我们要删除一些停用词,避免这些词的噪声干扰,故而需要一个停用词表
            stop_words_list=stopwords.words('english')  # 获取英文停用词表
            return [[token for token in line if token not in stop_words_list]
                    for line in lines_list] 
            # 这儿有点难以理解,lines_list含有的元素也是list,这一个list就是一行文本,
            # 而一行文本内部有N个分词组成,故而lines_list可以看出二维数组,需要用两层generator
        
        def __word_stemm(self,lines_list): # 预处理之三:对每个分词进行词干提取
            stemmer=SnowballStemmer('english')
            return [[stemmer.stem(word) for word in line] for line in lines_list]
        
        def prepare(self):
            '''供外部调用的函数,用于准备数据集'''
            # 先从txt文件中加载文本内容,再进行分词,再去除停用词,再进行词干提取
            stemmed_words=self.__word_stemm(self.__remove_stops(self.__tokenize(self.__load_txt())))
            # 后面的建模需要用到基于dict的词矩阵,故而先用corpora构建dict在建立词矩阵
            dict_words=corpora.Dictionary(stemmed_words)
            matrix_words=[dict_words.doc2bow(text) for text in stemmed_words]
            return dict_words, matrix_words 
        
        # 以下函数主要用于测试上面的几个函数是否运行正常
        def get_content(self):
            return self.__load_txt()
        
        def get_tokenize(self):
            return self.__tokenize(self.__load_txt())
        
        def get_remove_stops(self):
            return self.__remove_stops(self.__tokenize(self.__load_txt()))
        
        def get_word_stemm(self):
            return self.__word_stemm(self.__remove_stops(self.__tokenize(self.__load_txt())))
    

    这个类是否运行正常,是否能够得到我们预期的结果了?可以用下面的代码来测试

    # 检验上述DataSet类是否运行正常
    dataset=DataSet("E:PyProjectsDataSetFireAIdata_topic_modeling.txt")
    
    # 以下测试load_txt()函数是否正常
    content=dataset.get_content()
    print(len(content))
    print(content[:3])
    
    # 以下测试__tokenize()函数是否正常
    tokenized=dataset.get_tokenize()
    print(tokenized)
    
    # 一下测试__remove_stops()函数是否正常
    removed=dataset.get_remove_stops()
    print(removed)
    
    # 以下测试__word_stemm()函数是否正常
    stemmed=dataset.get_word_stemm()
    print(stemmed)
    
    # 以下测试prepare函数是否正常
    _,prepared=dataset.prepare()
    print(prepared)
    

    输出的运行结果比较长,可以看我的github源代码。


    2. 构建模型,训练数据集

    我们用LDA模型(Latent Dirichlet Allocation, LDA)做主题建模,如下:

    # 获取数据集
    dataset=DataSet("E:PyProjectsDataSetFireAIdata_topic_modeling.txt")
    dict_words, matrix_words =dataset.prepare()
    
    # 使用LDAModel建模
    lda_model=models.ldamodel.LdaModel(matrix_words,num_topics=2,
                               id2word=dict_words,passes=25) 
    # 此处假设原始文档有两个主题
    

    上面的代码会建立LDAModel并对模型进行训练,需要注意,LDAModel位于gensim模块中,这个模块需要自己用pip install gensim来安装,安装之后才能使用。

    LDAModel会计算每个单词的重要性,然后建立重要性计算方程,依靠此方程来给出预测主题。

    如下代码可以打印出该重要性方程:

    # 查看模型中最重要的N个单词
    print('Most important words to topics: ')
    for item in lda_model.print_topics(num_topics=2,num_words=5):
        # 此处只打印最重要的5个单词
        print('Topic: {}, words: {}'.format(item[0],item[1]))
    

    -------------------------------------输---------出--------------------------------

    Most important words to topics:
    Topic: 0, words: 0.075"need" + 0.053"order" + 0.032"system" + 0.032"encrypt" + 0.032"work"
    Topic: 1, words: 0.037
    "younger" + 0.037"develop" + 0.037"promot" + 0.037"talent" + 0.037"train"

    --------------------------------------------完-------------------------------------

    ########################小**********结###############################

    1,一般机器学习项目需要我们自己处理的内容都是数据集方面,可以将数据集处理过程写成一个专门的class,比如上面我把文本预处理过程写在class里面,每一个函数代表一种预处理方式,这样条理清楚,具有一定通用性。

    2,此处我们使用gensim模块中的LDAModel来做主题建模,gensim模块是一个非常有用的NLP处理工具,在文本内容分析中应用较多。

    #################################################################


    注:本部分代码已经全部上传到(我的github)上,欢迎下载。

    参考资料:

    1, Python机器学习经典实例,Prateek Joshi著,陶俊杰,陈小莉译

  • 相关阅读:
    关于Javascript的有趣的3个小知识
    linux支持串口(serial)登录配置方法
    Silicom Linux BypassSD Control Utilitybypass command
    USB隨身碟版的Clonezilla live
    如何將Clonezilla live放到一個已經有其他作業系統存在的硬碟中
    clonezilla for usb as ghost or backup,auto ghost,auto backup(再生龙一键还原(备份)的制作)
    典型PC机上各种操作的近似时间
    linux网络问题子网掩码与网关不在同一段的处理
    Linux family member.(AS/ES/WS)
    华为交换机常用命令
  • 原文地址:https://www.cnblogs.com/RayDean/p/9810117.html
Copyright © 2011-2022 走看看