zoukankan      html  css  js  c++  java
  • 200813_tensorflow2---1、基础

    200813_tensorflow2---1、基础

    一、总结

    一句话总结:

    讲课的时候可以考虑就像这样讲,把需要的基础东西先过一遍,用什么讲什么,这样减轻记忆力,极好的

    1、常用函数 t.Variable?

    ①、tf.Variable()将变量标记为“可训练”,被标记的变量会在反向传播中记录梯度信息。神经网络训练中,常用该函数标记待训练参数。
    ②、tf.Variable(初始值) w=tf.Variablet(tf.random.normal([2,2],mean=0,stddev=1)

    2、常用函数 t.data.Dataset.from_tensor_slices?

    ①)、切分传入张量的第一维度,生成输入特/标签对,构建数据集
    ②)、data=tf.data.Dataset.from_tensor_slices((输入特征,标签)) (Numpy和Tensor格式都可用该语句读入数据)

    3、常用函数 t.GradientTape with?

    (①)、结构记录计算过程,gradient求出张量的梯度
    (②)、with tf.Gradient Tape() as tape:grad=tape.gradient(函数,对谁求导)
    with tf.Gradient Tape() as tape:
        若干个计算过程
        grad=tape.gradient(函数,对谁求导)

    4、常用函数enumerate?

    (一)、enumerate是python的内建函数,它可遍历每个元素(如列表、元组或字符串),组合为:索引元素,常在for循环中使用。
    (二)、enumerate(列表名)
    seq=['one','two','three']
    for i,element in enumerate(seq):
        print(i,element)
    
    运行结果:
    0 one
    1 two
    2 three

    5、softmax的公式的确很简单:tf.nn.softmax(x)?

    $$frac { e ^ { y _ { i } } } { sum _ { j = 0 } ^ { n } e ^ { y _ { i } } }$$

    6、常用函数tf.argmax?

    返回张量沿指定维度最大值的索引tf.argmax(张量名,axis=操作轴),axis为0取列,axis为1取行

    二、基础

    博客对应课程的视频位置:

     
  • 相关阅读:
    图片上传-下载-删除等图片管理的若干经验总结3-单一业务场景的完整解决方案
    图片上传-下载-删除等图片管理的若干经验总结2
    HDU 1195 Open the Lock
    HDU 1690 Bus System
    HDU 2647 Reward
    HDU 2680 Choose the best route
    HDU 1596 find the safest road
    POJ 1904 King's Quest
    CDOJ 889 Battle for Silver
    CDOJ 888 Absurdistan Roads
  • 原文地址:https://www.cnblogs.com/Renyi-Fan/p/13501740.html
Copyright © 2011-2022 走看看