《Deep Learnning Tutorial》笔记(三)

上两篇博文都是对深度学习进行一个简要的了解,见识一下这个新的世界。接下来继续学习。 Why Deep? 先看一个表格: 我们可以发现,当层X的size越大,出错率越低。所以参数越多,训练效果越好,这是不足为奇的!! 有一个普遍定理: 任何连续的函数 f:RN→RM 可以通过一个带有一层隐藏层的网络实现(这个层有足够多的隐藏神经元)。当然也可以通过多层隐藏层实现。 那么我们试想一下神经网络的结构,如
相关文章
相关标签/搜索