zoukankan      html  css  js  c++  java
  • 从头开始使用梯度下降优化在Python中实现单变量多项式回归(后续2)

    绩效分析(SGD与BGD)

    模型性能分析是根据以下指标完成的:

    =>平均绝对误差:实例样本的预测值与实际观测值之间的平均mod(差)。

     

    查找MAE:

    ae = 0 # Absolute Error
    for i in range(0,y_train.shape[0]):
    ae = ae + abs(training_predictions[i] - y_train[i])
    MAE = ae/y_train.shape[0] # Mean Absolute Error

     

    =>均方误差:实例样本的预测值与实际观测值之间的平方差的平均值。

     

    查找MSE:

    from math import *
    se = 0 # Square Error
    for i in range(0,y_train.shape[0]):
    se = se + pow((training_predictions[i] - y_train[i]), 2)
    MSE = se/y_train.shape[0] # Mean Square Error

     

    =>均方根误差:实例样本的预测值与实际观测值之间的平方差的平均值的平方根。

     

    查找RMSE:

    from math import *
    RMSE = sqrt(MSE) # Root Mean Square Error

     

    => R平方得分或确定系数:

     
     
     
     
    import numpy as np
    y_m = np.mean(y_train)SStot = 0
    for i in range(0,y_train.shape[0]):
    SStot = SStot + pow((y_train[i] - y_m), 2)SSres = 0
    for i in range(0,y_train.shape[0]):
    SSres = SSres + pow((y_train[i] - training_predictions[i]), 2)R_Square_Score = 1 - (SSres/SStot)
     
     

    SGD和BGD之间的比较:

     

    因此,批次梯度下降在各个方面均明显胜过随机梯度下降!

    这就是使用Scratch中的Gradient Descent在Python中实现单变量线性回归的全部内容。

     
  • 相关阅读:
    shell 学习笔记 LinuxShell脚本攻略(第2版)
    [六省联考2017]分手是祝愿
    [SDOI2010]粟粟的书架
    [CQOI2018]解锁屏幕
    [SCOI2007]最大土地面积
    CF369E Valera and Queries
    CF817F MEX Queries
    [HEOI2016/TJOI2016]求和
    [CQOI2018]九连环
    [HNOI2015]亚瑟王
  • 原文地址:https://www.cnblogs.com/dr-xsh/p/13211846.html
Copyright © 2011-2022 走看看