• TensorFlow2_200729系列---12、全连接层


    TensorFlow2_200729系列---12、全连接层

    一、总结

    一句话总结:

    tf.keras.layers.Dense(2, activation='relu')

    1、为什么神经节点一般有多个w和一个b?

    A、h=relu(X@W)+b,这里的b表示bias,也就是误差,
    B、比如第一层3个节点,第二层两个节点,对应的式子为:h1=x1*w1+x2*w2+x3*w3+b

    2、tf.keras.layers.Dense(2, activation='relu') 中的dense表示什么意思?

    dense表示连接的密度,也就是全连接,也就是所有的点都连上

    3、tensorflow的model打印w和b?

    for p in model.trainable_variables:print(p.name, p.shape)
    # trainable_variables:
    # Sequence of trainable variables owned by this module and its submodules.
    for p in model.trainable_variables:
        print(p.name, p.shape)
    
    dense_12/kernel:0 (3, 2)
    dense_12/bias:0 (2,)
    dense_13/kernel:0 (2, 2)
    dense_13/bias:0 (2,)
    dense_14/kernel:0 (2, 2)
    dense_14/bias:0 (2,)

    4、python 如何查看object有哪些属性和方法?

    a、使用dir(object)或者object.__dict__
    b、也可以使用help函数

    二、全连接层

    博客对应课程的视频位置:

    import tensorflow as tf 
    from     tensorflow import keras
    
    
    x = tf.random.normal([2, 3])
    
    model = keras.Sequential([
            keras.layers.Dense(2, activation='relu'),
            keras.layers.Dense(2, activation='relu'),
            keras.layers.Dense(2)
        ])
    model.build(input_shape=[None, 3])
    model.summary()
    
    # trainable_variables:
    # Sequence of trainable variables owned by this module and its submodules.
    for p in model.trainable_variables:
        print(p.name, p.shape)
    Model: "sequential_4"
    _________________________________________________________________
    Layer (type)                 Output Shape              Param #   
    =================================================================
    dense_12 (Dense)             multiple                  8         
    _________________________________________________________________
    dense_13 (Dense)             multiple                  6         
    _________________________________________________________________
    dense_14 (Dense)             multiple                  6         
    =================================================================
    Total params: 20
    Trainable params: 20
    Non-trainable params: 0
    _________________________________________________________________
    dense_12/kernel:0 (3, 2)
    dense_12/bias:0 (2,)
    dense_13/kernel:0 (2, 2)
    dense_13/bias:0 (2,)
    dense_14/kernel:0 (2, 2)
    dense_14/bias:0 (2,)
     
    我的旨在学过的东西不再忘记(主要使用艾宾浩斯遗忘曲线算法及其它智能学习复习算法)的偏公益性质的完全免费的编程视频学习网站: fanrenyi.com;有各种前端、后端、算法、大数据、人工智能等课程。
    博主25岁,前端后端算法大数据人工智能都有兴趣。
    大家有啥都可以加博主联系方式(qq404006308,微信fan404006308)互相交流。工作、生活、心境,可以互相启迪。
    聊技术,交朋友,修心境,qq404006308,微信fan404006308
    26岁,真心找女朋友,非诚勿扰,微信fan404006308,qq404006308
    人工智能群:939687837

    作者相关推荐

  • 相关阅读:
    vim技巧2
    vim技巧1
    网站压力测试工具
    CentOS mysql安装
    破解root
    渐进式性能监测案例
    网络监测介绍
    I/O检测介绍
    虚拟内存介绍
    @Slf4j
  • 原文地址:https://www.cnblogs.com/Renyi-Fan/p/13424264.html
Copyright © 2020-2023  润新知