神经网络学习笔记(3):Keras

Keras 中的其他激活函数: model.add(Activation('sigmoid')) model.add(Activation('softmax')) model.add(Activation('relu')) model.add(Activation('tanh'))   梯度下降->随机梯度下降: 如果每次都用所有的数据下降一个步长,很费内存 如果数据分布合理,每次使用一部分数据就
相关文章
相关标签/搜索