《深度学习工程师》听课笔记,编程做业和课后练习

                                                                                                                              


向AI转型的程序员都关注了这个号👇👇👇python

大数据挖掘DT机器学习  公众号: datayx程序员



课程地址、笔记、代码获取方式:web


一、转发本文至朋友圈
算法

二、关注微信公众号 datayx  而后回复 深度学习  便可获取。
windows


目录微信


神经网络与深度学习
 1. 神经网络的基础网络


  • Logistic 回归app

  • Logistic 回归的损失函数框架

  • 梯度降低法机器学习

  • 逻辑回归的梯度降低法

  • m个样本的梯度降低法

  • 向量化

  • Python 广播

      

2. 浅层神经网络


  • 神经网络表示

  • 神经网络输出

  • 激活函数

  • 激活函数的导数

  • 神经网络的梯度降低法

  • 随机初始化


3.深层神经网络

    

  • 深层神经网络的前向传播和反向传播

  • 核对矩阵的维数

  • 使用深层表示的缘由

  • 参数和超参数


改进深度神经网络:超参数调整,正则化和优化

1. 深度学习的实用层面

    

  • 训练、验证、测试集

  • 误差、方差

  • 正则化

  • 为何正则化有利于防止过拟合

  • dropout正则化

  • 理解dropout

  • 其余正则化方法

  • 标准化(归一化)输入

  • 梯度消失和梯度爆炸

  • 神经网络的权重初始化

  • 梯度的数值逼近

  • 梯度检验

  • 梯度验证应用的注意事项


2.优化算法

    

  • Mini-batch梯度降低

  • 指数加权平均

  • 理解指数加权平均

  • 指数加权平均的误差修正

  • momentum梯度降低

  • RMSprop

  • Adam优化算法

  • 学习率衰减

  • 局部最优问题


3.超参数调试、Batch 正则化和程序框架

    

  

  • 超参数调试处理

  • 为超参数选择合适的范围

  • 超参数调试实践:Pandas vs. Caviar

  • 网络中的正则化激活函数

  • 在神经网络中融入Batch Norm

  • Batch Norm 起做用的缘由

  • 在测试数据上使用 Batch Norm

  • Softmax 回归

  • 训练 Sotfmax 分类器



结构化机器学习项目

   

     机器学习策略(1)




    • 为何是ML策略

    • 正交化

    • 单一数字评估指标

    • 知足和优化指标

    • 训练集、开发集、测试集的划分

    • 开发集和测试集的大小

    • 何时改变开发/测试集和评估指标

    • 为何是人的表现

    • 可避免误差

    • 理解人类的表现

    • 超越人类的表现

    • 改善你的模型表现




    机器学习策略(2)



    • 偏差分析

    • 清除标注错误的数据

    • 快速搭建第一个系统并开始迭代

    • 在不一样分布上的训练集和测试集

    • 数据分布不匹配的误差和方差分析

    • 处理数据不匹配的问题

    • 迁移学习

    • 多任务学习

    • 何为端到端的深度学习

    • 是否使用端到端的深度学习方法




  卷积神经网络

        1. 卷积神经网络基础

            

    • 计算机视觉

    • 边缘检测示例

    • 更多边缘检测的内容

    • padding

    • 卷积步长

    • 三维卷积

    • 单层卷积网络

    • 简单神经网络示例

    • 池化层

    • 卷积神经网络示例

    • 为何使用卷积?

       

    2. 深度卷积网络:实例探究

        

    • 为何要进行实例探究

    • 经典网络

      • LeNet-5

      • AlexNet

      • VGG

    • 残差网络

    • 为何残差有用?

    • 网络中的网络以及1×1卷积

    • 谷歌Inception网络简介

    • Inception网络

    • 使用开源的实现方案

    • 迁移学习

    • 数据扩充

    • 计算机视觉现状


    3. 目标检测

        

    • 目标定位(Object localization)

    • 特征点检测(Landmark detection)

    • 目标检测(Object detection)

    • 卷积的滑动窗口实现(Convolutional implementation of sliding windows)

    • Bounding Box预测(Bounding box predictions)

    • 交并比(Intersection over union)

    • 非极大值抑制(Non-max suppression)

    • Anchor Boxes

    • YOLO 算法(Putting it together: YOLO algorithm)

    • 候选区域(选修)(Region proposals (Optional))

       

    3.特殊应用:人脸识别和神经风格转换

             

    • 什么是人脸识别?(What is face recognition?)

    • One-Shot学习(One-shot learning)

    • Siamese 网络(Siamese network)

    • Triplet 损失(Triplet Loss)

    • 面部验证与二分类(Face verification and binary classification)

    • 什么是神经风格转换?(What is neural style transfer?)

    • 什么是深度卷积网络?(What are deep ConvNets learning?)

    • 代价函数(Cost function)

    • 内容代价函数(Content cost function)

    • 风格代价函数(Style cost function)

    • 一维到三维推广(1D and 3D generalizations of models)

        

    序列模型

        1. 循环神经网络(RNN)
            

    • 为何选择序列模型?

    • 数学符号

    • 循环神经网络模型

      • 对时间序列参数共享的理解

    • 经过时间的反向传播

    • 不一样类型的循环神经网络

    • 语言模型和序列生成

    • 对新序列采样

    • 循环神经网络的梯度消失

    • GRU单元

    • 长短时间记忆(LSTM)

    • 双向循环神经网络

    • 深层循环神经网络





阅读过本文的人还看了如下:


《21个项目玩转深度学习:基于TensorFlow的实践详解》完整版PDF+附书代码


Machine Learning Yearning 中文翻译稿


深度学习500问,轻松掌握从基础到进阶(附答案)


全球AI挑战-场景分类的比赛源码(多模型融合)



不断更新资源

深度学习、机器学习、数据分析、python

 搜索公众号添加: datayx  

长按图片,识别二维码,点关注



深度学习 500问

使用 ReLu 激活函数的优势

1、在区间变更很大的状况下,ReLu 激活函数的导数或者激活函数的斜率都会远大于 0, 在程序实现就是一个 if-else 语句,而 sigmoid 函数须要进行浮点四则运算,在实践中,使用ReLu 激活函数神经网络一般会比使用 sigmoid 或者 tanh 激活函数学习的更快。

2sigmoid tanh 函数的导数在正负饱和区的梯度都会接近于 0,这会形成梯度弥散,而Relu Leaky ReLu 函数大于 0 部分都为常数,不会产生梯度弥散现象。

3、需注意,Relu 进入负半区的时候,梯度为 0,神经元此时不会训练,产生所谓的稀疏 性,而 Leaky ReLu 不会产生这个问题。




本文分享自微信公众号 - 机器学习AI算法工程(datayx)。
若有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一块儿分享。

相关文章
相关标签/搜索