来源: Datawhale
几个月前,红色石头发文介绍过一份在 GitHub 上很是火爆的项目,名为:DeepLearning-500-questions,中文译名:深度学习 500 问。做者是川大的一名优秀毕业生谈继勇。该项目以深度学习面试问答形式,收集了 500 个问题和答案。内容涉及了经常使用的几率知识、线性代数、机器学习、深度学习、计算机视觉等热点问题。 git
该热门项目一直在不断更新,做者本着开源精神,不断有新的贡献者在完善项目。现在,全书已达 50 余万字,分为 18 个章节。github
首先,直接放上项目地址: 面试
https://github.com/scutan90/D...算法
目前该项目已有 2.6w stars 了!只要是内容都是干货,超全!后端
下面,咱们来看一看该项目有哪些硬核干货吧!网络
该项目更确切地说是一本深度学习面试手册,500 问,很是详细。全书共分为 18 章,近 50 万字,目录以下:架构
全书内容很是丰富,持续更新和完善中。下面咱们列举一些知识点给读者一睹为快! 框架
1. 各类常见算法(第 2 章)机器学习
平常使用机器学习的任务中,咱们常常会碰见各类算法,以下图所示。性能
2. 支持向量机(第 2 章)
支持向量:在求解的过程当中,会发现只根据部分数据就能够肯定分类器,这些数据称为支持向量。
支持向量机(Support Vector Machine,SVM):其含义是经过支持向量运算的分类器。
在一个二维环境中,其中点R,S,G点和其它靠近中间黑线的点能够看做为支持向量,它们能够决定分类器,即黑线的具体参数。
支持向量机是一种二分类模型,它的目的是寻找一个超平面来对样本进行分割,分割的原则是边界最大化,最终转化为一个凸二次规划问题来求解。
3. 经常使用的神经网络结构(第 3 章)
下图包含了大部分经常使用的模型:
4. 多分类 Softmax(第 3 章)
下图包含了 Softmax 层的详细过程和推导:
5. 经典网络结构(第 4 章)
本章主要介绍几个具备表明性的神经网络模型。
LeNet-5
LeNet-5 模型是 Yann LeCun 于 1998 年提出来的,它是第一个成功应用于数字识别问题的卷积神经网络。在 MNIST 数据中,它的准确率达到大约 99.2%。典型的 LeNet-5 结构包含卷积层、池化层和全链接层,顺序通常是:卷积层->池化层->卷积层->池化层->全链接层->全链接层->输出层。
同时给出了 LeNet-5 的网络参数配置:
AlexNet
AlexNet 是 2012 年 ImageNet 竞赛冠军得到者 Hinton 和他的学生 Alex Krizhevsky 设计的。AlexNet 能够直接对彩色的大图片进行处理,对于传统的机器学习分类算法而言,它的性能至关的出色。AlexNet 是由 5 个卷积层和 3 个全链接层组成,顺序通常是:卷积层->池化层->卷积层->池化层->卷积层->卷积层->卷积层->池化层->全链接层->全链接层->输出层。
AlexNet 的网络参数配置:
6. 全链接、局部链接、全卷积与局部卷积(第 5 章)
全链接、局部链接、全卷积与局部卷积的对比和解释以下:
整个项目包含的内容很是多,这里就再也不赘述。干货很硬,你们不要错过了这份资源。
总的来讲,这份资源不是一本深度学习的系统教材,而是一份完整的、详细的深度学习知识点精炼手册。对于面试、自我测验来讲很是有帮助!一句话:硬核干货,值得收藏!