zoukankan      html  css  js  c++  java
  • 吴恩达老师的神经网路和深度学习_05

           在吴恩达老师的神经网络和深度学习_04中介绍了逻辑回归函数如链接https://www.cnblogs.com/mengmengxia/p/10537579.html

    •  逻辑回归的代价函数(Logistic Regression Cost Function)

            逻辑回归的代价函数又称为成本函数。为了训练逻辑回归模型的参数 w 和参数 b。需要一个代价函数,通过训练代价函数来得到参数w和参数b。先看一下逻辑回归的输出函数:           

    给予一个训练集有m个样本,可以通过训练集的学习得到参数w和参数b。对于训练集的预测值,我们希望它会接近于训练集中的y值。训练样本i所对应的预测值是 是用训练样本的 通过sigmoid函数得到的。

           损失函数又叫误差函数,用来衡量算法的运行情况。损失函数用来衡量预测输出值和实际值有多接近。那么在逻辑回归中用到的损失函数是:

                                                                                          

                                                                 

           损失函数是在单个训练样本中定义的,它衡量的是算法在单个训练样本中表现如何,为了衡量算法在全部训练样本上的表现如何,我们需要定义一个算法的代价函数,算法的代价函数是对m个样本的损失函数求和然后除以m:

                                                                                                                                                                                                                                             

               用于像这样的单个训练样本,而代价函数是参数的总代价,所以在训练逻辑回归模型时候,我们需要找到合适的w和b,来让代价函数J  的总代价降到最低。 

                不知道是怎么搞的,博客园写数学公式显示不出来,只能这样弄了!希望见谅!共同进步!

    我们什么都没有,唯一的本钱就是青春。梦想让我与众不同,奋斗让我改变命运!
  • 相关阅读:
    算法作业10——0-1装载问题(背包问题)
    算法作业9-1——最长公共子序列问题
    算法作业9-2——背包问题
    算法作业7——投资问题
    算法作业6——选第k小的元素:特定分治策略
    【Java并发编程】并发编程大合集
    Redis学习笔记-Redis内部数据结构
    近期的随笔
    2013年的总结,比以往时候来得晚了一些
    探索推荐引擎内部的秘密,第 3 部分: 深入推荐引擎相关算法
  • 原文地址:https://www.cnblogs.com/mengmengxia/p/10548285.html
Copyright © 2011-2022 走看看