这个课程分为4个部分,首先需要彻底通过 端对端 的方法来训练第一个简单模型,这样才能打好基础,为此,将讨论 逻辑分类、随机优化,和关于训练模型的通用数据实践。
下一步训练第一个深度网络,也将学到利用正则化技术去训练更大的模型,第三部分,将深入介绍图像和卷积模型,第四部分,是关于一般的文本和序列,我们将训练 嵌入和递归模型。
Classification is the task of taking an input.分类是一种给定输入和标记的任务。分类或者预测prediction是机器学习的基石.
下面开始训练一个逻辑回归分类器
逻辑回归分类器是一种线性分类器,它接受输入,比如图片的像素,对输入执行一个线性函数来生成预测。线性函数实际上就是一个巨大的矩阵相乘,
它把输入当成一个大的矢量 用X表示,然后乘以一个矩阵产生预测,每个类一个输出。自始至终,我们将输入表示为X 权重表示为W 偏置项表示为b。
w 和 b 则是机器学习的用武之地,训练这个模型,意味着我们想要尝试找到一个权重和偏置,使得预测的结果表现的很好。
我们怎么用这些结果去执行分类呢?
我们把每张图片当成输入且只有一个标签,因此我们将这些结果转化为概率,这将使得正确分类的概率非常接近1,而其他分类的概率接近于0。
把这个结果转化为概率的方法是:(如下)
使用softmax函数,上图中间是他的表达式,除了公式,关于它最重要的是,它可以将任何的结果转化成正确的概率。正确的概率的总和是1,且当结果较大时,概率较大,结果较小时,概率较小。
在逻辑回归的概念中, scores 结果常被称为 logits。