zoukankan      html  css  js  c++  java
  • day7 神经网络基础

    一、学习视频自我小结

    二元分类

    1、计算机保存一个图片,通过保存红、绿、蓝三个颜色的像素矩阵。

    2、这些像素值提取出来,然后放入一个特征向量 x ,如果图片的大小为64x64像素,那么向量 x  的总维度,将是64乘以64乘以3,这是三个像素矩阵中像素的总量

    3、二分类问题中,我们的目标就是习得一个分类器,它以图片的特征向量x作为输入,然后预测输出 y 结果为1还是0,也就是预测图片中是否有猫

    4、符号定义 :

    x :
    表示一个 n_x维数据,为输入数据,维度为 (n_x,1)

    y :
    表示输出结果,取值为 ( 0 , 1 )

    ( x ( i ) , y ( i ) ) :
    表示第组数据,可能是训练数据,也可能是测试数据,此处默认为训练数据;

    X = [ x ( 1 ) , x ( 2 ) , ⋯   , x ( m ) ]
    表示所有的训练数据集的输入值,放在一个  n_x * m 的矩阵中,其中 m  表示样本数目;

    Y = [ y ( 1 ) , y ( 2 ) , ⋯   , y ( m ) ]
    对应表示所有训练数据集的输出值,维度为 1 ∗ m

    用一对 ( x , y ) 来表示一个单独的样本,x 代表 n_x 维的特征向量,y 表示标签(输出结果)只能为0或1。 而训练集将由 m 个训练样本组成,其中(x(1),y(1)) 表示第一个样本的输入和输出, (x(2),y(2)) 表示第二个样本的输入和输出,直到最后一个样本(x(m),y(m)) ,然后所有的这些一起表示整个训练集。有时候为了强调这是训练样本的个数,会写作 Mtrain,当涉及到测试集的时候,我们会使用来 Mtest 表示测试集的样本数,所以这是测试集的样本数:

    Logistic 回归

    1、你想知道某张图片是否是猫,我们前面用y={0,1}来表示是否是吗,那现在我们根据输入的特征向量X,利用算法得到预测y帽(一个概率值)。准确来说x是个图片,我们希望y帽告诉这个图片是猫图的概率

    2、因为前面说过特征向量x是个nx维的,所以w*x+b,w也应该是nx维,b是个一维实数,可能你会想到用线性回归来求y帽,即,但是y帽是个概率,应该在(0,1),要不然没意义,所以我们用 sigmoid 作用在w*x+b这个量上,也就是

    3、 sigmoid 函数可以很好地将 (,)内的数映射到 (0,1) 上。于是我们可以将 g(z)0.5时分为"1"类, g(z)<0.5 时分为"0"类。

    二、运行实例代码

    报错:tf.placeholder() is not compatible with eager execution.

    解决--在代码中添加这样一句:

    tf.compat.v1.disable_eager_execution()

     三、实现Typora 笔记与博客园联动

    写好typora笔记后

    1、cmd 输入e:

    2、输入cd 笔记文档

    3、dotnet-cnblog proc -f Logistic回归损失函数.md

     4、然后会生成一个cnblog.md,把里面的内容复制到博客园即可

    参考博客:https://www.cnblogs.com/naimao/p/13613771.html

  • 相关阅读:
    常见排序算法-----堆排序
    深度优先搜索和广度优先搜索
    剑指offer整理-------二维数组查找
    常见排序算法-----希尔排序
    log4j日志不能输出到文件
    常见排序算法-----直接插入排序
    从零开始学习springBoot(使用thymeleaf和freemarker模板)
    从零开始学习springBoot(Spring Boot使用Druid和监控配置)
    从零开始学习springBoot(定时任务)
    从零开始学习springBoot(默认静态资源和自定义资源映射)
  • 原文地址:https://www.cnblogs.com/chenaiiu/p/14274052.html
Copyright © 2011-2022 走看看