吴恩达先生的机器学习工程师系列课程共分为五个自课程,包括:
如今,我刚学完第一个课程,神经网络这一部分,由于我数学功底较好,大一大二期间学过概率论与数理统计、线性代数、高等数学、复变函数与积分变换这些课程,入门还是比较容易。因为神经网络的基础就是矩阵计算以及相关函数。此外,我的MATLAB程序设计这门课还考了97分的成绩,MATLAB的基础知识很大一部分就是矩阵方面的函数计算等等,因此我学的比较容易。
但是,入门虽容易,更重要的是对神经网络相关知识的积累。因此我会将学习到的新名词和相关原理性的内容,做好记录,做好复习。
这节课程分为四周学习时间,第一周讲深度学习概论,第二周讲神经网络基础,第三周讲浅层神经网络,第四周讲深层神经网络,在课程的最后还有吴恩达先生对人工智能行业大师的访谈。
Input(x) | Output(y) | Application | Neural Network form |
---|---|---|---|
HOme feature | Price | Real Estate | SNN标准神经网络 |
Ad, user info | Click on ad?(0/1) | Online Advertising | SNN |
Image | Object(1,….1000) | Photo tagging | CNN卷积神经网络 |
Audio | Text transcript | Speech recognition | RNN循环神经网络,时间序列模型 |
English | Chinese | Machine translation | RNNs |
Image,Radar info | Position of others cars | Autonomous driving | GNN图网络,CHNN复杂高阶神经网络 |
4. 机器学习的数据类型:结构化数据和非结构化数据(Audio,Image,Text)
5. 深度学习兴起的原因:神经网络的规模和海量的数据(带标签)规模的增长,包括计算能力的提升。大多数算法创新的目的是为了让神经网络运行得更快。
6. 神经网络的一个巨大突破:激活函数从sigmoid函数转换到ReLU函数。sigmoid函数的缺点:当自变量很大时,斜率接近0,参数变化很小,因而学习过程变得很缓慢。而ReLU函数与此相反,可以使“梯度下降法”运行得更快。
7. 训练神经网络的过程
大概看了一下,有几点感悟: 学习之余,要做一些项目,并把自己觉得合适的程序或算法长传到GitHub平台上,分享自己的学习和感悟。 其次,要讲机器学习的知识和某些领域结合起来,而不是单单纯粹学习机器学习。 最后,我的英文要好好学习,听力和阅读能力有待提升。