zoukankan      html  css  js  c++  java
  • 【Python】用Python的“结巴”模块进行分词

                之前都是用计算所的分词工具进行分词,效果不错可是比較麻烦,近期開始用Python的“结巴”模块进行分词,感觉很方便。这里将我写的一些小程序分享给大家,希望对大家有所帮助。

    以下这个程序是对一个文本文件中的内容进行分词的程序:test.py

    #!/usr/bin/python
    #-*- encoding:utf-8 -*-
    import jieba                                                    #导入jieba模块
    
    def splitSentence(inputFile, outputFile):
        fin = open(inputFile, 'r')                                  #以读的方式打开文件
        fout = open(outputFile, 'w')                                #以写得方式打开文件
    
        for eachLine in fin:
            line = eachLine.strip().decode('utf-8', 'ignore')       #去除每行首尾可能出现的空格,并转为Unicode进行处理
            wordList = list(jieba.cut(line))                        #用结巴分词,对每行内容进行分词
            outStr = ''
            for word in wordList:
                outStr += word
                outStr += '/ '
            fout.write(outStr.strip().encode('utf-8') + '
    ')       #将分词好的结果写入到输出文件
        fin.close()
        fout.close()
    
    splitSentence('myInput.txt', 'myOutput.txt')

    写完程序之后,在Linux重点输入:python test.py就可以执行程序进行分词。


    输入的文件内容例如以下所看到的:



    经过结巴分词后,输出结果例如以下所看到的:



    注意:第11行的 jieba.cut()返回的结构是一个可迭代的generator,能够用list(jieba.cut(...))转化为list



  • 相关阅读:
    HashMap和HashSet的区别
    安卓坐标
    android MotionEvent中getX()和getRawX()的区别
    android 布局之滑动探究 scrollTo 和 scrollBy 方法使用说明
    register_chrdev_region/alloc_chrdev_region和cdev注册字符设备驱动
    将JZ2440的调试串口换成com2
    pcl点云文件格式
    C++中的迭代器
    C++中的vector
    “标准差”
  • 原文地址:https://www.cnblogs.com/gcczhongduan/p/4197247.html
Copyright © 2011-2022 走看看