在 tensorrtserver 中使用 saved_model

###1. 部署 tensorrtserver 建议使用 docker 部署 tensorrtserver。docker 相关的知识网上不少,自行参考。tensorrtserver 的官方建议的安装以下:html docker pull nvcr.io/nvidia/tensorrtserver:19.08-py3 镜像文件较大,且国内下载很慢,常常断线。因此建议使用阿里云的镜像源,阿里的镜像源是
相关文章
相关标签/搜索