• tf.contrib.layers.fully_connected参数笔记


    tf.contrib.layers.fully_connected

    添加完全连接的图层。

    tf.contrib.layers.fully_connected(
        inputs,
        num_outputs,
        activation_fn=tf.nn.relu,
        normalizer_fn=None,
        normalizer_params=None,
        weights_initializer=initializers.xavier_initializer(),
        weights_regularizer=None,
        biases_initializer=tf.zeros_initializer(),
        biases_regularizer=None,
        reuse=None,
        variables_collections=None,
        outputs_collections=None,
        trainable=True,
        scope=None
    )

    fully_connected创建一个名为的变量weights,表示一个完全连接的权重矩阵,乘以它inputs产生一个 Tensor隐藏单位。

    如果normalizer_fn提供了a (例如 batch_norm),则应用它。否则,如果normalizer_fn为None且biases_initializer提供了a,

    biases则将创建变量并添加隐藏单位。最后,如果activation_fn不是None,它也会应用于隐藏单位。

    • inputs:至少等级2的张量和最后一个维度的静态值; [batch_size, depth][None, None, None, channels]
    • num_outputs:整数或长整数,图层中的输出单位数。
    • activation_fn:激活功能。默认值是ReLU功能。将其明确设置为“无”以跳过它并保持线性激活。
    • normalizer_fn:使用标准化功能代替biases如果 normalizer_fn提供biases_initializerbiases_regularizer则忽略并且biases不创建也不添加。没有规范化器功能,默认设置为“无”
    • normalizer_params:规范化函数参数。
    • weights_initializer:权重的初始化程序。
    • weights_regularizer:可选的权重正则化器。
    • biases_initializer:偏见的初始化程序。如果没有跳过偏见。
    • biases_regularizer:偏见的可选正则化器。
    • reuse:是否应重用图层及其变量。必须给出能够重用层范围的能力。
    • variables_collections:所有变量的集合的可选列表或包含每个变量的不同集合列表的字典。
    • outputs_collections:用于添加输出的集合。
    • trainable:如果True还将变量添加到图表集合中 GraphKeys.TRAINABLE_VARIABLES(请参阅tf.Variable)。
    • scope:variable_scope的可选范围。

     参考: https://tensorflow.google.cn/api_docs/python/tf/contrib/layers/fully_connected

    加油!
  • 相关阅读:
    [linux]CentOS防火墙
    [工具]VIM键位
    [mac]mac 终端 常用命令
    [数据结构]“堆”,"栈","堆栈","队列"的区别
    [java]Java构造方法与析构方法
    [环境]Eclipse安装WindowBuilder
    [BZOJ 1441]Min(裴蜀定理)
    [BZOJ 4563][Haoi2016]放棋子(错排公式)
    [BZOJ 4517][Sdoi2016]排列计数(组合数学/错排公式)
    [BZOJ 3680]吊打XXX(模拟退火)
  • 原文地址:https://www.cnblogs.com/1994tj/p/11412327.html
Copyright © 2020-2023  润新知