前面我们通过Gradient Descent的方法进行了线性回归,但是梯度下降有如下特点:
(1)需要预先选定Learning rate;
(2)需要多次iteration;
(3)需要Feature Scaling;
因此可能会比较麻烦,这里介绍一种适用于Feature数量较少时使用的方法:Normal Equation;
当Feature数量小于100000时使用Normal Equation;
当Feature数量大于100000时使用Gradient Descent;
![](https://images2015.cnblogs.com/blog/1095436/201705/1095436-20170508215345863-1679045146.jpg)
![](https://images2015.cnblogs.com/blog/1095436/201705/1095436-20170508215653019-37162460.jpg)
![](https://images2015.cnblogs.com/blog/1095436/201705/1095436-20170508215754691-1596359889.jpg)