200813_tensorflow2---9、卷积神经网络就是CBAPD(杂)
一、总结
一句话总结:
卷积就是特征提取器,就是C(卷积层)B(批标准化层)A(激活层)P(池化层)D(dropout层)
model=tf.keras.models.Sequential([ Conv2D(filters=6,kernel_size=(5,5),padding='same'),#卷积层 BatchNormalization(),#BN层 Activation('relu'),#激活层 MaxPoo12D(pool_size=(2,2),strides=2,padding='same'),#池化层 Dropout(0.2),#dropout层 ])
1、要使卷积核的通道数与输入特征图的通道数一致?
比如rgb三通道的图,可以使用3*3*3的卷积核或者5*5*3的卷积核
2、卷积神经网络中全零填充和非全零填充怎么表示?
全零填充:padding="SAME"
非全零填充:padding="VALID"
3、卷积层常用参数?
壹、filters=卷积核个数,
贰、kernel_size=卷积核尺寸,#正方形写核长整数,或(核高h,核宽w)
叁、strides=滑动步长,#横纵向相同写步长整数,或(纵向步长h,横向步长w),默认1
肆、padding="same"or"valid",#使用全零填充是“same”,不使用是“valid”(默认)
tf.keras.layers.Conv2D( filters=卷积核个数, kernel_size=卷积核尺寸,#正方形写核长整数,或(核高h,核宽w) strides=滑动步长,#横纵向相同写步长整数,或(纵向步长h,横向步长w),默认1 padding="same"or"valid",#使用全零填充是“same”,不使用是“valid”(默认) activation="relu"or"sigmoid"or"tanh"or"softmax"等,#如有BN此处不写 input_shape=(高,宽,通道数)#输入特征图维度,可省略 )
4、BN(批标准化)层位置和BN层作用?
BN层作用:对一小批数据(batch),使数据符合0均值,1为标准差的分布。
BN层位置:BN层加在卷积层和激活层之间
5、池化操作常用参数?
①、pool_size=池化核尺寸,#正方形写核长整数,或(核高h,核宽w)
②、strides=池化步长,#步长整数,或(纵向步长h,横向步长w),默认为pool size
③、padding="valid"or"same"#使用全零填充是"same",不使用是"valid"(默认)
tf.keras.layers.MaxPool2D( pool_size=池化核尺寸,#正方形写核长整数,或(核高h,核宽w) strides=池化步长,#步长整数,或(纵向步长h,横向步长w),默认为pool size padding="valid"or"same"#使用全零填充是"same",不使用是"valid"(默认) )
二、内容在总结中
博客对应课程的视频位置: