CNN模型 INT8 量化实现方式(一)

当前CNN模型基本都是 float32,将其转换为 INT8 能够下降模型大小,提高速度,精度下降的也不太多。那么在实际中如何实现这个量化了?在网上找到了三种实践方法, 基于腾讯的NCNN, Tensorflow ,Nvidia 的 TensorRT,这里先介绍其中的一种。linux 这里主要涉及两个问题:1)就是 int8量化;2)就是 int8 模型的使用android 基于Caffe-Int
相关文章
相关标签/搜索