PACT: PARAMETERIZED CLIPPING ACTIVATION FOR QUANTIZED NEURAL NETWORKS

本文的主要贡献有三点: 1、提出了pact方法,它给激活函数设定了一个可学习的α截断参数。 2、在2bit以下,它的效果比所有当时的模型都好;4bit的精度接近单精度的表现。 3、它可以提供一种平衡模型精度和复杂度的方法。 量化权重相当于是将权重的损失函数的假设空间离散化,因此可以通过训练来弥补由量化导致的误差,但传统的激活函数却并没有任何可训练参数,因此不能这样做。 ReLU已经成为现在最为流行
相关文章
相关标签/搜索