1
2
3
4
5
6
7
reduce_sum 是 tensor 内部求和的工具。其参数中:
input_tensor 是要求和的 tensor
axis 是要求和的 rank,如果为 none,则表示所有 rank 都要仇和
keep_dims 求和后是否要降维
这个操作的名称,可能在 graph 中 用
已被淘汰的,被参数 axis 替代
x = tf.constant([[1, 1, 1], [1, 1, 1]])
tf.reduce_sum(x, 0) # 对 tensor 的 0 级进行求和,[1,1,1] + [1,1,1] = [2, 2, 2]
tf.reduce_sum(x, 1) # 对 tensor 的 1 级进行仇和,[1+1+1, 1+1+1] = [3, 3]
tf.reduce_sum(x, 1, keep_dims=True) # 对第 1 级进行求和,但不降维, [[3], [3]]
tf.reduce_sum(x, [0, 1]) # 0 级和 1级都要求和,6
tf.reduce_sum(x) # 因为 x 只有 2 级,所以结果同上一个,6
1
2
3
4
5
6
上面是TensorFlow官方文档中的函数解释。
其实在reduce_sum()中,是从维度上去考虑的(感觉这个Matlab中数据的概念比较像)
调用reduce_sum(arg1, arg2)时,参数arg1即为要求和的数据,arg2有两个取值分别为0和1,通常用reduction_indices=[0]或reduction_indices=[1]来传递参数。从上图可以看出,当arg2 = 0时,是纵向对矩阵求和,原来矩阵有几列就得到几个值;相似地,当arg2 = 1时,是横向对矩阵求和;当省略arg2参数时,默认对矩阵所有元素进行求和。
看到这里,函数名的前缀为什么是reduce_其实也就很容易理解了,reduce就是“对矩阵降维”的含义,下划线后面的部分就是降维的方式,在reduce_sum()中就是按照求和的方式对矩阵降维。那么其他reduce前缀的函数也举一反三了,比如reduce_mean()就是按照某个维度求平均值,等等。
---------------------
作者:GeorgeAI
来源:CSDN
原文:https://blog.csdn.net/georgeai/article/details/81030811
版权声明:本文为博主原创文章,转载请附上博文链接!