int8量化和tvm实现

量化主要有两种方案html 直接训练量化模型如Deepcompression,Binary-Net,Tenary-Net,Dorefa-Net 对训练好的float模型(以float32为例)直接进行量化(以int8为例),这边博客主要讲这个 参考NIVIDIA 量化官方文档 int8量化原理 将已有的float32型的数据改为A = scale_A * QA + bias_A,B相似,NVIDI
相关文章
相关标签/搜索