小象学院深度学习笔记1(传统神经网络)

神经网络起源于线性回归,是线性到非线性的转变   即使损失大量特征,因为特征足够多不会对模型的特征获取有太多影响。 线性回归网络可以简化为一层,多个系数矩阵的相乘可以转化成一个系数矩阵    赋予不同参数不同的权重值;多目标任务例如目标检测,既要分类又要进行定位;不同的网络模型的loss值得融合,例如VGG+Google,每个网络模型相当于一个神经元。 竞赛和业界中的套路:各种net的ensemb
相关文章
相关标签/搜索