TensorRT Inference 引擎简介及加速原理简介

1.TensorRT简介 TensorRT是NVIDIA 推出的一款基于CUDA和cudnn的神经网络推断加速引擎,相比于一般的深度学习框架,在CPU或者GPU模式下其可提供10X乃至100X的加速,极大提高了深度学习模型在边缘设备上的推断速度。将TensorRT应用在NVIDIA 的TX1或者TX2上,可实现深度学习网络的时时推荐,且不需在内存较少的嵌入式设备上部署任何深度学习框架。 2.Ten
相关文章
相关标签/搜索