int8量化和tvm实现

量化主要有两种方案 直接训练量化模型如Deepcompression,Binary-Net,Tenary-Net,Dorefa-Net 对训练好的float模型(以float32为例)直接进行量化(以int8为例),这边博客主要讲这个 int8量化原理 将已有的float32型的数据改成A = scale_A * QA + bias_A,B类似,NVIDIA实验证明可以去掉bias,即A = sc
相关文章
相关标签/搜索