zoukankan      html  css  js  c++  java
  • 机器学习入门-文本数据-使用聚类增加文本的标签属性

    通过对特征做一个kmeans聚类,将聚类的结果做为文本的标签值,可以使得样本的特征更多

    我们从sklearn.cluster中导入Kmeans建立模型进行聚类

    代码:

          第一步:使用Dataframe格式化数据和使用数据格式化数据

          第二步:对字符串进行分词和去除停用词,并使用' '.join完成连接

          第三步:使用np.vectorizer向量化函数,调用函数进行分词和去除停用词

          第四步:使用Tfidfvectorizer构造词袋模型

          第五步:使用cosine_similarity构造相关性矩阵

           第六步:对相关性矩阵进行聚类操作,将增加的聚类标签添加到原始数据中

    复制代码
    import pandas as pd
    import numpy as np
    import re
    import nltk #pip install nltk
    
    
    corpus = ['The sky is blue and beautiful.',
              'Love this blue and beautiful sky!',
              'The quick brown fox jumps over the lazy dog.',
              'The brown fox is quick and the blue dog is lazy!',
              'The sky is very blue and the sky is very beautiful today',
              'The dog is lazy but the brown fox is quick!'
    ]
    
    labels = ['weather', 'weather', 'animals', 'animals', 'weather', 'animals']
    
    # 第一步:构建DataFrame格式数据
    corpus = np.array(corpus)
    corpus_df = pd.DataFrame({'Document': corpus, 'categoray': labels})
    
    # 第二步:构建函数进行分词和停用词的去除
    # 载入英文的停用词表
    stopwords = nltk.corpus.stopwords.words('english')
    # 建立词分割模型
    cut_model = nltk.WordPunctTokenizer()
    # 定义分词和停用词去除的函数
    def Normalize_corpus(doc):
        # 去除字符串中结尾的标点符号
        doc = re.sub(r'[^a-zA-Z0-9s]', '', string=doc)
        # 是字符串变小写格式
        doc = doc.lower()
        # 去除字符串两边的空格
        doc = doc.strip()
        # 进行分词操作
        tokens = cut_model.tokenize(doc)
        # 使用停止用词表去除停用词
        doc = [token for token in tokens if token not in stopwords]
        # 将去除停用词后的字符串使用' '连接,为了接下来的词袋模型做准备
        doc = ' '.join(doc)
    
        return doc
    
    # 第三步:向量化函数和调用函数
    # 向量化函数,当输入一个列表时,列表里的数将被一个一个输入,最后返回也是一个个列表的输出
    Normalize_corpus = np.vectorize(Normalize_corpus)
    # 调用函数进行分词和去除停用词
    corpus_norm = Normalize_corpus(corpus)
    
    # 第四步:使用TfidVectorizer进行TF-idf词袋模型的构建
    from sklearn.feature_extraction.text import TfidfVectorizer
    
    Tf = TfidfVectorizer(use_idf=True)
    Tf.fit(corpus_norm)
    vocs = Tf.get_feature_names()
    corpus_array = Tf.transform(corpus_norm).toarray()
    corpus_norm_df = pd.DataFrame(corpus_array, columns=vocs)
    print(corpus_norm_df.head())
    # 第四步:使用TfidVectorizer进行TF-idf词袋模型的构建
    from sklearn.feature_extraction.text import TfidfVectorizer
    
    Tf = TfidfVectorizer(use_idf=True)
    Tf.fit(corpus_norm)
    vocs = Tf.get_feature_names()
    corpus_array = Tf.transform(corpus_norm).toarray()
    corpus_norm_df = pd.DataFrame(corpus_array, columns=vocs)
    print(corpus_norm_df.head())
    
    # 第五步:使用cosine_similarity构造相关性矩阵
    from sklearn.metrics.pairwise import cosine_similarity
    
    similarity_matrix = cosine_similarity(corpus_array)
    similarity_matrix_df = pd.DataFrame(similarity_matrix)
    
    # 第六步:构造聚类特征,这里主要是对相关性矩阵做的一种聚类,也可以对词袋模型特征做
    
    from sklearn.cluster import KMeans
    
    model = KMeans(n_clusters=2)
    model.fit(np.array(similarity_matrix))
    print(model.labels_)
    corpus_norm_df['k_labels'] = np.array(model.labels_)
    print(corpus_norm_df.head())
    复制代码

     
     
  • 相关阅读:
    云谷分布式端口扫描与代理验证系统(一)简介
    Linux 共享库:LD_LIBRARY_PATH 与ld.so.conf_爱过了就好_新浪博客
    分享:QT QJson库编译心得
    分享:Zed Attack Proxy 2.0 发布,Web 渗透测试
    LIBTOOL is undefined 解决方法
    linux下.a/.so/.la目标库区别
    LDAmath文本建模
    分享:SchemaCrawler 9.4 发布,数据库结构输出
    JQ也要面向对象~在JQ中扩展静态方法和实例方法
    将不确定变为确定~Flag特性的枚举是否可以得到Description信息
  • 原文地址:https://www.cnblogs.com/liuys635/p/12435900.html
Copyright © 2011-2022 走看看