使用docker部署模型的好处在于,避免了与繁琐的环境配置打交道。使用docker,不须要手动安装Python,更不须要安装numpy、tensorflow各类包,直接一个docker就包含了所有。docker的方式是现在部署项目的第一选择。python
docker安装须要两个命令:
sudo apt-get install docker
sudo apt-get install docker.iogit
好的学习资料没必要远求
docker --help
docker run --helpgithub
docker ps 查看当前正在运行的实例
docker images查看现有的镜像
docker kill 实例名称或者实例ID 杀死正在运行的实例
docker pull 镜像名称 从远程docker仓库拉下来别人已经配置好的镜像docker
docker命令默认只能root权限使用,这样实在有些繁琐。docker安装完成以后,docker组已经存在了,可是当前用户不在docker组里面,因此只须要把当前用户添加到docker组便可。
groups 查看当前用户所在的那些组
groupadd docker 添加组,这一步其实没有必要,由于docker组已经存在了
sudo usermod -aG docker $USER
把当前用户添加到docker组,还有另一种方法:sudo gpasswd -a ${USER} docker
newgrp - docker 刷新docker组
sudo service docker restart 重启服务ubuntu
docker就是一个镜像,咱们须要作的就是把docker和外部世界创建联系。最紧密的联系有以下三种:api
sudo docker pull tensorflow/serving 把serving的镜像拉下来
git clone https://github.com/tensorflow/serving 复制一份现有的模型,固然也可使用本身的模型,这个仓库是tensorflow serving的整个源码库,里面给出了一些demo,咱们只须要demo那一部分网络
使用docker命令启动服务session
TESTDATA="$(pwd)/serving/tensorflow_serving/servables/tensorflow/testdata" docker run -t --rm -p 8501:8501 \ -v "$TESTDATA/saved_model_half_plus_two_cpu:/models/half_plus_two" \ -e MODEL_NAME=half_plus_two \ tensorflow/serving &
docker -e设置环境变量
docker -p设置端口映射
docker -v设置磁盘映射
docker run -t 表示是否容许伪TTY
docker run --rm表示若是实例已经存在,则先remove掉该实例再从新启动新实例curl
创建映射时,都是形如“宿主机:docker容器”这种格式。机器学习
最后万事俱备,只欠东风了。
# Query the model using the predict API curl -d '{"instances": [1.0, 2.0, 5.0]}' \ -X POST http://localhost:8501/v1/models/half_plus_two:predict # Returns => { "predictions": [2.5, 3.0, 4.5] }
容器启动以后,使用docker ps查看有哪些实例,使用docker kill 实例ID 杀死实例,使用docker inspect 实例ID查看实例详情。
创建磁盘映射除了使用-v参数,也可使用mount参数。
docker run -p 8501:8501 --mount type=bind,\ source=/tmp/tfserving/serving/tensorflow_serving/servables/tensorflow/testdata/saved_model_half_plus_two_cpu,\ target=/models/half_plus_two \ -e MODEL_NAME=half_plus_two -t tensorflow/serving &
咱们须要了解tensorflow/serving这个镜像的默认配置,镜像的默认配置就像电路板的引脚同样,是固定的。
serving镜像提供了两种调用方式:gRPC和HTTP请求。gRPC默认端口是8500,HTTP请求的默认端口是8501,serving镜像中的程序会自动加载镜像内/models下的模型,经过MODEL_NAME指定/models下的哪一个模型。
Tensorflow官网上、github上的例子都比较旧,须要作些小修改才可以使用。例如旧版的导出使用了contrib中的session_bundle,而这个包已经不鼓励使用了。
旧版的serving模型导出
from tensorflow import gfile from tensorflow.contrib.session_bundle import exporter export_path = "/tmp/half_plus_two" if not gfile.Exists(export_path): gfile.MkDir(export_path) with tf.Session() as sess: # Make model parameters a&b variables instead of constants to # exercise the variable reloading mechanisms. a = tf.Variable(0.5) b = tf.Variable(2.0) # Calculate, y = a*x + b # here we use a placeholder 'x' which is fed at inference time. x = tf.placeholder(tf.float32) y = tf.add(tf.multiply(a, x), b) # Run an export. tf.global_variables_initializer().run() export = exporter.Exporter(tf.train.Saver()) export.init(named_graph_signatures={ "inputs": exporter.generic_signature({"x": x}), "outputs": exporter.generic_signature({"y": y}), "regress": exporter.regression_signature(x, y) }) export.export(export_path, tf.constant(123), sess)
新版的模型导出:主要使用saved_model包下的工具
import os import tensorflow as tf def signature(function_dict): signature_dict = {} for k, v in function_dict.items(): inputs = {k: tf.saved_model.utils.build_tensor_info(v) for k, v in v['inputs'].items()} outputs = {k: tf.saved_model.utils.build_tensor_info(v) for k, v in v['outputs'].items()} signature_dict[k] = tf.saved_model.build_signature_def(inputs=inputs, outputs=outputs, method_name=v['method_name']) return signature_dict output_dir = "/tmp/counter" for i in range(100000, 9999999): cur = os.path.join(output_dir, str(i)) if not tf.gfile.Exists(cur): output_dir = cur break method_name = tf.saved_model.signature_constants.PREDICT_METHOD_NAME print('outputdir', output_dir) with tf.Graph().as_default(), tf.Session() as sess: counter = tf.Variable(0.0, dtype=tf.float32, name="counter") with tf.name_scope("incr_counter_op", values=[counter]): incr_counter = counter.assign_add(1.0) delta = tf.placeholder(dtype=tf.float32, name="delta") with tf.name_scope("incr_counter_by_op", values=[counter, delta]): incr_counter_by = counter.assign_add(delta) with tf.name_scope("reset_counter_op", values=[counter]): reset_counter = counter.assign(0.0) nothing = tf.placeholder(dtype=tf.int32, shape=(None,)) sess.run(tf.global_variables_initializer()) signature_def_map = signature({ "get_counter": {"inputs": {"nothing": nothing}, "outputs": {"output": counter}, "method_name": method_name}, "incr_counter": {"inputs": {"nothing": nothing}, "outputs": {"output": incr_counter}, "method_name": method_name}, "incr_counter_by": {"inputs": {'delta': delta, }, "outputs": {'output': incr_counter_by}, "method_name": method_name}, "reset_counter": {"inputs": {"nothing": nothing}, "outputs": {"output": reset_counter}, "method_name": method_name} }) builder = tf.saved_model.builder.SavedModelBuilder(output_dir) builder.add_meta_graph_and_variables(sess, tags=[tf.saved_model.tag_constants.SERVING], signature_def_map=signature_def_map) builder.save() print("over")
以上代码有一个注意事项:
使用nothing做为inputs中的占位元素,这样作是由于模型的每一个函数的inputs都不能为空,不然触发错误:
"error": "Failed to get input map for signature: get_counter"
。这彷佛是tensorflow彷佛有bug,调用get_counter方法是无论用的,传入的inputs为空,就没法调用成功。
运行此servable
$docker run -p 8555:8501 -v /home/ubuntu/counter:/models/counter -e MODEL_NAME=counter tensorflow/serving & 获取模型状态 $curl http://localhost:8555/v1/models/saved_model_counter { "model_version_status": [ { "version": "1343", "state": "AVAILABLE", "status": { "error_code": "OK", "error_message": "" } } ] } 使用metadata获取可用模型元数据 ~$curl http://localhost:8555/v1/models/saved_model_counter/metadata { "model_spec":{ ...... 调用增加函数 ~$curl http://localhost:8555/v1/models/counter:predict -X POST -d '{"signature_name":"incr_couter","inputs":[0]}' { "outputs": 1.0 } 调用increase_by 第一种方式inputs传入列表 curl http://localhost:8555/v1/models/counter:predict -X POST -d '{"signature_name":"incr_couter_by","inputs":[3]}' 第二种方式inputs传入字典 ~$curl http://localhost:8555/v1/models/counter:predict -X POST -d '{"signature_name":"incr_counter_by","inputs":{"delta":3.0}}'
tf.saved_model.signature_constants这个包很是简单,它定义了如下三类变量签名
这三类分别具备:
CLASSIFY_METHOD_NAME = "tensorflow/serving/classify" PREDICT_METHOD_NAME = "tensorflow/serving/predict" REGRESS_METHOD_NAME = "tensorflow/serving/regress"
整体来讲,定义这些常量名其实并没有卵用,咱们只用predict就足够了。
serving是一个很是通用的库,它不只可以用来对tensorflow模型服务,也能够对其它机器学习模型服务。
serving只负责tensorflow模型部分,因此咱们须要把用到的函数所有定义出来,这自己就至关于一种RPC。
serving可以起到解耦的做用,对于大项目来讲是一件好事,可是对于小项目来讲略嫌啰嗦。