【框架】:适用于端侧的深度学习推理框架:TensorRT

1.TensorRT是什么 TensorRT: GPU Inference Engine(简称GIE) 2.推断(Inference)可以做什么? 推断(Inference)的网络权值已经固定下来,无后向传播过程,因此可以: (1)模型固定,可以对计算图进行优化 (2) 输入输出大小固定,可以做memory优化 推断(Inference)可以使用低精度的技术,另一方面是模型需要的空间减少,不管是权
相关文章
相关标签/搜索