JavaShuo
栏目
标签
relu
relu
全部
Deep Learning中的一些Tips详解(RELU+Maxout+Adam+Dropout)
2020-07-14
deep
learning
一些
tips
详解
relu+maxout+adam+dropout
relu
maxout
adam
dropout
激活函数(ReLU, Swish, Maxout)
2020-07-14
激活
函数
relu
swish
maxout
【不可忽视的这一种】Dynamic ReLU:自适应参数化ReLU(调参记录6)
2020-06-14
不可忽视的这一种
dynamic
relu
自适应
参数
记录
CSS
【不可忽视的这一种】动态ReLU:自适应参数化ReLU(调参记录9)Cifar10~93.71%
2020-06-14
不可忽视的这一种
动态
relu
自适应
参数
记录
cifar10
cifar
93.71%
CSS
深度残差网络+自适应参数化ReLU激活函数(调参记录23)Cifar10~95.47%
2020-06-14
深度
网络
自适应
参数
relu
激活
函数
记录
cifar10
cifar
95.47%
系统网络
【不可忽视的这一种】Dynamic ReLU:Adaptively Parametric ReLU(调参记录10)
2020-06-14
不可忽视的这一种
dynamic
relu
adaptively
parametric
记录
激活函数Relu的优势
2020-06-24
激活
函数
relu
优势
稀疏自编码器的隐层激活函数不能用relu,要用sigmoid
2020-06-29
稀疏
编码器
激活
函数
不能
relu
sigmoid
Mish:一个新的state of the art的激活函数,ReLU的继任者
2020-07-04
mish
一个
新的
state
art
激活
函数
relu
继任者
神经网络中的ReLU激活函数——(Rectified Linear Unit)线性整流函数
2020-07-04
神经网络
relu
激活
函数
rectified
linear
unit
线性
整流
应用数学
«
2
3
4
5
6
7
8
9
10
»
每日一句
每一个你不满意的现在,都有一个你没有努力的曾经。