梯度下降:值越大,函数变化越快。
激活函数:Relu函数是一个单调递增函数,用来解决线形问题。
ReLu(Rectified Linear Units)激活函数
池化和全连接:
tensorflow 1.0 学习:池化层(pooling)和全连接层(dense)
SoftMax:解决多分类问题
均差:数据是否平均分布
方差:数据是否聚合
卷积神经网络:
梯度下降:值越大,函数变化越快。
激活函数:Relu函数是一个单调递增函数,用来解决线形问题。
ReLu(Rectified Linear Units)激活函数
池化和全连接:
tensorflow 1.0 学习:池化层(pooling)和全连接层(dense)
SoftMax:解决多分类问题
均差:数据是否平均分布
方差:数据是否聚合
卷积神经网络: