zoukankan      html  css  js  c++  java
  • 机器学习笔记08-----回归2

    1.线性回归补充

    图中1,2,3表示拟合的函数的最高次项的阶数。

    机器学习的主要挑战是我们的算法必须能够在先前未观测的新输入上表现良好,而不只是在训练集上表现良好。在先前未观测到的输入上表现良好的能力被称为泛

    化(generalization)

    通常,我们度量模型在训练集中分出来的测试集(test set)样本上的性能,来评估机器学习模型的泛化误差。

    2.logistic回归

    利用logistic回归可以做分类。

    3.代码示例

    #!/usr/bin/python
    # -*- coding:utf-8 -*-
    
    import numpy as np
    from sklearn.linear_model import LogisticRegression
    import matplotlib.pyplot as plt
    import matplotlib as mpl
    from sklearn import preprocessing
    import pandas as pd
    from sklearn.preprocessing import StandardScaler
    from sklearn.pipeline import Pipeline
    
    
    def iris_type(s):
        it = {'Iris-setosa': 0, 'Iris-versicolor': 1, 'Iris-virginica': 2}
        return it[s]
    
    
    if __name__ == "__main__":
        path = u'8.iris.data'  # 数据文件路径
    
        # # 使用sklearn的数据预处理
        df = pd.read_csv(path, header=0)
        x = df.values[:, :-1]
        y = df.values[:, -1]
        print('x = 
    ', x)
        print('y = 
    ', y)
        le = preprocessing.LabelEncoder()
        le.fit(['Iris-setosa', 'Iris-versicolor', 'Iris-virginica'])
        print(le.classes_)
        y = le.transform(y)
        print('Last Version, y = 
    ', y)
        #
        # 为了可视化,仅使用前两列特征
        x = x[:, :2]
        #
        print(x)
        print(y)
        #
        # x = StandardScaler().fit_transform(x)
        # lr = LogisticRegression()   # Logistic回归模型
        #     lr.fit(x, y.ravel())        # 根据数据[x,y],计算回归参数
        #
        # 等价形式
        lr = Pipeline([('sc', StandardScaler()),
                            ('clf', LogisticRegression()) ])
        lr.fit(x, y.ravel())
    
        # 画图
        N, M = 500, 500     # 横纵各采样多少个值
        x1_min, x1_max = x[:, 0].min(), x[:, 0].max()   # 第0列的范围
        x2_min, x2_max = x[:, 1].min(), x[:, 1].max()   # 第1列的范围
        t1 = np.linspace(x1_min, x1_max, N)
        t2 = np.linspace(x2_min, x2_max, M)
        x1, x2 = np.meshgrid(t1, t2)                    # 生成网格采样点
        x_test = np.stack((x1.flat, x2.flat), axis=1)   # 测试点
    
        # 无意义,只是为了凑另外两个维度
        # x3 = np.ones(x1.size) * np.average(x[:, 2])
        # x4 = np.ones(x1.size) * np.average(x[:, 3])
        # x_test = np.stack((x1.flat, x2.flat, x3, x4), axis=1)  # 测试点
    
        cm_light = mpl.colors.ListedColormap(['#77E0A0', '#FF8080', '#A0A0FF'])
        cm_dark = mpl.colors.ListedColormap(['g', 'r', 'b'])
        y_hat = lr.predict(x_test)                  # 预测值
        y_hat = y_hat.reshape(x1.shape)                 # 使之与输入的形状相同
        plt.pcolormesh(x1, x2, y_hat, cmap=cm_light)     # 预测值的显示
        plt.scatter(x[:, 0], x[:, 1], c=y, edgecolors='k', s=50, cmap=cm_dark)    # 样本的显示
        plt.xlabel('petal length')
        plt.ylabel('petal width')
        plt.xlim(x1_min, x1_max)
        plt.ylim(x2_min, x2_max)
        plt.grid()
        plt.savefig('2.png')
        plt.show()
    
        # 训练集上的预测结果
        y_hat = lr.predict(x)
        y = y.reshape(-1)
        result = y_hat == y
        print(y_hat)
        print(result)
        acc = np.mean(result)
        print('准确度: %.2f%%' % (100 * acc))

    效果图:

  • 相关阅读:
    Largest Rectangle in Histogram
    Vertica环境安装R-Lang包提示缺少libgfortran.so.1
    Sybase数据库收集表及其索引的统计信息
    Linux 内存管理
    ORA-01439: 要更改数据类型, 则要修改的列必须为空
    MySQL ibdata1文件迁移
    exp/imp 参数说明,中英对照
    expdp/impdp 参数说明,中英对照
    Oracle ASM diskgroup在主机重启后启动失败
    Linux NFS 服务部署
  • 原文地址:https://www.cnblogs.com/luckyplj/p/12673636.html
Copyright © 2011-2022 走看看