线性回归重要概念:
损失函数:预测值偏离真实值的度量,损失越小,拟合越好
损失函数的两种求解方式:
最小二乘法:直接求解,使用于小样本量,小于10w,sklearn的API:from sklearn.linear_model import LinearRegression
梯度下降:适合大样本量,大于10w,但是梯度下降法存在局部最低点的问题,可以通过多次随机初始化,多次比较最小值的结果或者通过调整学习率来尽量寻找全局的最低点,sklearn的API:from sklearn.linear_model import SGDRegressor
使用均方误差来评估模型:均方误差越小,拟合效果越好。sklearn的API:from sklearn.metrics import mean_squared_error
from sklearn.datasets import load_boston from sklearn.linear_model import LinearRegression, SGDRegressor from sklearn.model_selection import train_test_split from sklearn.preprocessing import StandardScaler from sklearn.metrics import mean_squared_error # 回归方程性能评价均方误差API def boston_linear(): '''线性回归预测波士顿房价''' # 获取数据 bl = load_boston() # 分割训练集和测试集 x_train, x_test, y_train, y_test = train_test_split(bl.data, bl.target, test_size=0.25) # 进行标准化,特征值和目标值都需要进行标准化处理 # 特征值 std_x = StandardScaler() x_train = std_x.fit_transform(x_train) x_test = std_x.fit_transform(x_test) # 目标值,y_train.reshape(-1, 1)将一维数组转换成二维数组 std_y = StandardScaler() y_train = std_y.fit_transform(y_train.reshape(-1, 1)) y_test = std_y.fit_transform(y_test.reshape(-1, 1)) # 预测 # 最小二乘法求解结果 lr = LinearRegression() lr.fit(x_train, y_train) # 系数 print(lr.coef_) # 预测测试集的房子价格 lr_y_predict = std_y.inverse_transform(lr.predict(x_test)) print('最小二乘法测试集里面每个房子的价格', lr_y_predict) # 用均方误差对一个回归模型来进行评价,越小越好,mean_squared_error第一个参数是测试集的真实值,第二个参数数测试集的预测值 print('最小二乘法的均方误差:', mean_squared_error(std_y.inverse_transform(y_test), lr_y_predict)) # 梯度下降 sgd = SGDRegressor() sgd.fit(x_train, y_train) # 系数 print(sgd.coef_) # 预测测试集的房子价格 sgd_y_predict = std_y.inverse_transform(sgd.predict(x_test)) print('梯度下降测试集里面每个房子的价格', sgd_y_predict) # 用均方误差对一个回归模型来进行评价,越小越好,mean_squared_error第一个参数是测试集的真实值,第二个参数数测试集的预测值 print('梯度下降法的均方误差:', mean_squared_error(std_y.inverse_transform(y_test), sgd_y_predict)) if __name__ == "__main__": boston_linear()