梯度下降:值越大,函数变化越快。
梯度下降(Gradient Descent)小结
激活函数:Relu函数是一个单调递增函数,用来解决线形问题。
ReLu(Rectified Linear Units)激活函数
池化和全连接:
tensorflow 1.0 学习:池化层(pooling)和全连接层(dense)
caffe学习笔记31-理解全连接层
SoftMax:解决多分类问题
Softmax回归
Softmax分类函数
均差:数据是否平均分布
方差:数据是否聚合
卷积神经网络:
技术向:一文读懂卷积神经网络CNN