神经网络和深度学习第二周 神经网络基础

2.1 二分分类 2.2 logistic 回归 我们这门课不用红色笔写的表示方法,而是把w,b看成两个独立的参数训练他们 2.3 logistic回归损失函数 2.4 梯度下降法 写代码时,用dw或db表示导数。 如果函数变量超过两个,就用花体倒e表示偏导;如果函数只有一个变量,就用d表示导数。 2.5 导数 导数的定义,表示斜率 2.6 更多导数的例子 导数讲解 2.7 流程图 流程图是从左到
相关文章
相关标签/搜索