Neural Networks and Deep Learning

3.6 Activation Function sigmoid: a=11+e−z a = 1 1 + e − z 取值在(0,1)之间,除非是二分类的输出层,一般不选用,因为 tanh t a n h 比sigmoid表现要好。 tanh: a=ez−e−zez+e−z a = e z − e − z e z + e − z 取值在(-1,1),有数据中心化效果,使得网络的训练更容易,因此表现比
相关文章
相关标签/搜索