TRAINING DEEP NEURAL NETWORKS WITH LOW PRECISION MULTIPLICATIONS

文章:https://arxiv.org/abs/1412.7024 0 摘要 乘法器是深度神经网络数字实现中空间和功耗最大的算术运算符。我们在三个基准数据集上训练了一套最先进的神经网络(Maxout网络):MNIST,CIFAR-10和SVHN。它们采用三种不同的格式进行训练:浮点,固定点和动态固定点。对于每个数据集以及每种格式,我们评估乘法的精确度对训练后最终误差的影响。我们发现,非常低的精度
相关文章
相关标签/搜索