神经网络入门笔记(一)

#一、思路 神经网络存在 合适的权重w和偏置b,以便拟合训练数据的过程 叫 学习。 ##1.训练数据 从训练数据中提取部分数据(叫做mini-batch) 目的是->减小损失函数的值。 ###mini-batch mini-batch gradient decent,是小批的梯度下降数据,这种方法把数据分为若干个批,按批来更新参数,这样,一个批中的一组数据共同决定了本次梯度的方向,下降起来比较稳定
相关文章
相关标签/搜索