JavaShuo
栏目
标签
relu不可微为什么可用于深度学习
时间 2021-01-16
原文
原文链接
首先确定relu数学上来讲不可微的,提供伪梯度使其可分,faux gradient是伪梯度,使得在0值不可分; 这里讲到了本质,反馈神经网络正常工作需要的条件就是每一个点提供一个方向,即导数;0值不可微,本质上来说是因为这个地方可画多条切线,但我们需要的只是一条;由于这出现的0值的概率极低,任意选择一个子梯度就OK了,在0处的次微分集合是【0,1】;即选择其中一个就OK了;一般默认是0;
>>阅读原文<<
相关文章
1.
深度学习(十六) ReLU为什么比Sigmoid效果好
2.
为什么用-Relu
3.
为什么要用深度学习?
4.
深度学习--为什么要深?
5.
String 为什么不可变 ?
6.
深度:为什么区块链不可或缺?
7.
深度学习-Relu层
8.
String对象为什么不可变,为什么被设计为不可变?
9.
深度学习概论:为什么深度学习会兴起?
10.
为什么深度学习与机器学习完全不同?
更多相关文章...
•
为什么使用 XML Schemas?
-
XML Schema 教程
•
为什么使用 Web Services?
-
Web Services 教程
•
适用于PHP初学者的学习线路和建议
•
Git可视化极简易教程 — Git GUI使用方法
相关标签/搜索
可微
可为
不知为什么
为什么
可可
可用
可不
不可
深度学习
不论什么
Spring教程
Docker教程
Docker命令大全
学习路线
调度
应用
0
分享到微博
分享到微信
分享到QQ
每日一句
每一个你不满意的现在,都有一个你没有努力的曾经。
最新文章
1.
正确理解商业智能 BI 的价值所在
2.
解决梯度消失梯度爆炸强力推荐的一个算法-----LSTM(长短时记忆神经网络)
3.
解决梯度消失梯度爆炸强力推荐的一个算法-----GRU(门控循环神经⽹络)
4.
HDU4565
5.
算概率投硬币
6.
密码算法特性
7.
DICOMRT-DiTools:clouddicom源码解析(1)
8.
HDU-6128
9.
计算机网络知识点详解(持续更新...)
10.
hods2896(AC自动机)
本站公众号
欢迎关注本站公众号,获取更多信息
相关文章
1.
深度学习(十六) ReLU为什么比Sigmoid效果好
2.
为什么用-Relu
3.
为什么要用深度学习?
4.
深度学习--为什么要深?
5.
String 为什么不可变 ?
6.
深度:为什么区块链不可或缺?
7.
深度学习-Relu层
8.
String对象为什么不可变,为什么被设计为不可变?
9.
深度学习概论:为什么深度学习会兴起?
10.
为什么深度学习与机器学习完全不同?
>>更多相关文章<<