实操将TensorFlow模型部署成Docker服务化

背景 深度学习模型如何服务化是一个机器学习领域工程方面的热点,如今业内一个比较主流的作法是将模型和模型的服务环境作成docker image。这样作的一个好处是屏蔽了模型对环境的依赖,由于深度学习模型在服务的时候可能对各类框架版本和依赖库有要求,解决运行环境问题一直是个使人头痛的事情。git 将模型经过docker服务化后意味着深度学习模型能够在各类环境使用,好比云端直接经过k8s调度拉起,或者在
相关文章
相关标签/搜索