TensorRT 3.0在Jetson TX2部署实战

目前关于使用TensorRT 3.0加速推理caffe的教程不太多,本博客会介绍部署TensorRT从HOST端到Jetson TX2端整个WORKFLOW,而后说明如何修改samples代码以即可以用自定义模型进行推理加速,主要从如下三个方面展开python TensorRT简介 环境配置 Jetson端模型文件推理 1、TensorRT简介 NVIDIA TensorRT是一种高性能神经网络推
相关文章
相关标签/搜索