JavaShuo
栏目
标签
2019iclr
2019iclr
全部
[2019ICLR W](模型压缩_剪枝_L0正则化)LEARNING SPARSE NEURAL NETWORKS THROUGH L0 REGULARIZATION
2020-01-31
2019iclr
iclr
模型
压缩
剪枝
l0
正则
learning
sparse
neural
networks
regularization
正则表达式
[2019ICLR W](模型压缩_剪枝_彩票理论)The Lottery Ticket Hypothesis: Finding Sparse, Trainable Neural Networks
2020-01-31
2019iclr
iclr
模型
压缩
剪枝
理论
lottery
ticket
hypothesis
finding
sparse
trainable
neural
networks
每日一句
每一个你不满意的现在,都有一个你没有努力的曾经。