课程回顾-Structuring Machine Learning Projects


这门课不是具体的技术,而是帮助你决定如今最有价值作的应该是什么

正交化 Orthogonalization


简单的说就是有些调整是不相互影响的,因此能够分开作git

单一评价指标

通常来讲有一个单一数值做为评价指标会更好
若是存在多个指标,通常能够优化一个,其余几个知足必定条件就好
除了通用的一些指标,咱们能够经过给样本加权的方式,使得得到更加适合咱们应用的评价指标github

保证训练、验证、测试的数据分布一致

不一样的错误

  • 任务的理论上限: bayes optimal error
  • 人类的水平: human error

假设一个图像识别的任务学习

Humans 1% 7.5%
Training error 8% 8%
Dev Error 10% 10%
  • 左边的例子,若是人类的错误率是1%,那么咱们应该关注的是bias
  • 右边的例子,若是说人类错误率是7.5%,那么咱们应该关注的是variance
  • 在这个例子中咱们可以用人类错误率来代替理论上限是由于人类在图像识别的任务上作的很是好

错误分析

能够经过手动随机抽样分析一些数据,看哪类的数据它出错最多,从而作针对性改进。测试

也能够分析一些他分对的业务和没对的业务,从而获得他的不足优化

数据分布不一致

数据分布不一致会致使上面的分析存在问题,因此这时候须要引入相似train-dev机制来实现设计

迁移学习 transfer learning

典型的就是fine-tunningblog

多任务学习 Multi-task learning

同时作多个任务,而且这多个任务能够互相帮助get

端到端的深度学习系统

好处

  • 充分利用数据
  • 设计简单

坏处

  • 须要更多数据
  • 没法利用手工设计的有效特征(在小数据的状况下他们多是颇有效的)

Reference

https://github.com/mbadry1/DeepLearning.ai-Summary深度学习



相关文章
相关标签/搜索