神经网络与深度学习笔记汇总一

神经网络与深度学习笔记汇总一 梯度下降法: 向量化:代替for循环 广播 ReLU激活函数 逻辑回归 损失函数(误差函数) 代价函数 卷积神经网络 往期回顾 梯度下降法: 通过最小化代价函数(成本函数)来训练的参数w和b 步骤: 1、初始化w和b 无论在哪里初始化,应该达到同一点或大致相同的点 2.朝最陡的下坡方向走一步,不断地迭代 3.直到走到全局最优解或者接近全局最优解的地方 m 个样本的梯度
相关文章
相关标签/搜索