zoukankan      html  css  js  c++  java
  • 中文词频统计

    该作业要求来自于:https://edu.cnblogs.com/campus/gzcc/GZCC-16SE2/homework/2773

    中文词频统计

    1. 下载一长篇中文小说。

    2. 从文件读取待分析文本。

    3. 安装并使用jieba进行中文分词。

      pip install jieba

      import jieba

      jieba.lcut(text)

    4. 更新词库,加入所分析对象的专业词汇。

      jieba.add_word('天罡北斗阵')  #逐个添加

      jieba.load_userdict(word_dict)  #词库文本文件

      参考词库下载地址:https://pinyin.sogou.com/dict/

      转换代码:scel_to_text

    5. 生成词频统计

    6. 排序

    7. 排除语法型词汇,代词、冠词、连词等停用词。

       stops

    8. 输出词频最大TOP20,把结果存放到文件里

    9. 生成词云。

      安装词云:pip install -i https://pypi.tuna.tsinghua.edu.cn/simple wordcloud

      下载安装:下载 https://www.lfd.uci.edu/~gohlke/pythonlibs/#wordcloud

      安装 找到下载文件的路径  pip install wordcloud-1.5.0-cp37-cp37m-win_amd64.whl

      配置:

      在WordCloud安装的目录下找到WordCloud.py文件,对源码进行修改。

      编辑wordcloud.py,找到FONT_PATH,将DroidSansMono.ttf修改成msyh.ttf。这个msyh.ttf表示微软雅黑中文字体。

      在同一个目录下放置msyh.ttf字体文件供程序调用(字体可以在C:WindowsFonts复制)

      使用:

      1、引入模块

      from wordcloud import WordCloud

      import matplotlib.pyplot as plt

      2、导入文本

        准备生成词云的文本word_text =' '.join(wordlist)  #是以空格分隔的字符串

      4、生成词云

      mywc = WordCloud().generate(wl_split)

      5、显示词云

      plt.imshow(mywc)

      plt.axis("off")

      plt.show()

    # coding=utf-8
    import jieba
    from wordcloud import WordCloud
    import matplotlib.pyplot as plt
    import pandas as pd
    #打开文件
    def open_file():
        file=open("两会报告.txt","r",encoding="utf-8");
        f=file.read();
        file.close();
        return f;
    
    #分割文件
    def cut_file(file):
        stopwords = stopwordslist("stops_chinese1.txt");
        for r in stopwords:
            file = file.replace(r, "");
        j=jieba.lcut(file);
        return j;
    
    #统计词频
    def count_word(l,f):
        d={};
        for i in l:
            if len(i)==1:
                l.remove(i);
            else:
                d[i] = f.count(i);
        d=sorted(d.items(),reverse=True,key=lambda d:d[1]);
        for index in range(20): #前20位词频数
            print(d[index]);
        pd.DataFrame(data=d).to_csv('两会词频.csv', encoding='utf-8');  # 保存为.csv格式
        return d;
    
    #生成词云
    def get_wordcloud(l):
        wl_split = " ".join(l);#以空格分割列表元素
        mywc=WordCloud().generate(wl_split);
        plt.imshow(mywc);
        plt.axis("off");
        plt.show();
    
    # 创建停用词list
    def stopwordslist(filepath):
        stopwords = [line.strip() for line in open(filepath, 'r', encoding='utf-8').readlines()]#一行一行读取
        return stopwords;
    
    #主函数
    def main():
        f=open_file();
        l= cut_file(f);
        count_word(l,f);
        get_wordcloud(l);
    
    main();

             

  • 相关阅读:
    Android四大套件Activity
    Android四大套件ContentProvider
    Android四大套件BroadCastReceiver
    Android四大套件Service
    面向对象中的多态(未完)
    Mybatis-Plus的填坑之路
    Quartz学习--三 Hello Jdbc Quartz! 和 demo 结尾
    Quartz学习--二 Hello Quartz! 和源码分析
    Quartz学习-- quartz基本介绍和 Cron表达式
    SpringMVC文件上传 Excle文件 Poi解析 验证 去重 并批量导入 MYSQL数据库
  • 原文地址:https://www.cnblogs.com/bufengdianbuchengmo/p/10554755.html
Copyright © 2011-2022 走看看