使用uwsgi结合Flask多进程调用TensorFlow模型推理时服务卡住

       使用Flask对TensorFlow训练后的模型进行服务器部署时,想使用uwsgi设置多进程的方式解决发布服务以解决高并发。服务写好后使用uwsgi进行多进程发布后发现运行sess.run调用模型推理时服务会卡住没法运行,查看后台uwsgi进程后会发现仅剩一个uwsgi服务,其余的uwsgi进程已经僵死。html 一开始纠结多是tf的问题,尝试了不少方法将模型调用经过类建立后仍是不能
相关文章
相关标签/搜索