bp神经网络和卷积神经网络浅谈

    这周首先进行了BP神经网络的学习,主要是继续学习了吴恩达老师的课程。1 对比了常见的激活函数,sigmoid、tanh和RELU的特色,使用范围,其中二分类问题使用sigmoid和tanh,而tanh函数比sigmoid性能更加优越,当隐含层不肯定时,倾向于使用Relu,主要是因为后者训练速度快。2 为何使用激活函数,当神经网络中没有激活函数时,无论有多少隐含层,最后至关于输入对输入进行线
相关文章
相关标签/搜索