二、激活函数举例:
1、sigmoid: y=1/(1+e^{-x}) ——>0<y<1,mean=0.5,适用于二分类
2、tanh: y = (exp(x) - exp(-x))/(exp(x) + exp(-x)) ——> -1 < y < 1,mean = 0,
tanh比sigmoid高效是因为tanh的均值为0,神经元更喜欢靠近0的输入值
sigmoid和tanh的缺点:当输入数据的值比较大时,神经网络的学习较慢。
3、relu: y = x, while x > 0
y = 0, while x <= 0
4、leaky relu : y = x,x > 0