神经网络优化

如下笔记根据mooc TensorFlow笔记整理而得,自己将其中代码重新实现了一遍,加固记忆 一、激活函数与交叉熵 神经元模型:用数学公式表示为: f(∑ixiwi+b),,f 为激活函数。神经网络是以神经元为基本单元构成的。  激活函数:引入非线性激活因素,提高模型的表达力。 常用的激活函数有 relu、sigmoid、tanh 等。  ①激活函数 relu: 在 Tensorflow 中,用
相关文章
相关标签/搜索