Docker用model.config部署及更新多个模型

步骤:

1、本地打包模型

2、编写model.config文件

3、使用 Docker 启动一个 TensorFlow Serving 容器

4、本地打包后的模型修改后,修改本地model.config,再同步更新容器的model.config

1、本地打包模型(本地路径)

2、编写model.config文件

powershell 复制代码
model_config_list:{
    config:{
        name: "model_1",
        base_path: "/models/model_1",
        model_platform: "tensorflow"
    },
    config:{
        name: "model_2",
        base_path: "/models/model_2",
        model_platform: "tensorflow"
    }
}

3、使用 Docker 启动一个 TensorFlow Serving 容器

bash 复制代码
docker run 
-p 8500:8500 
-p 8501:8501 
--mount type=bind,source=/save_data/tfs_model/,target=/models/ 
-t tensorflow-serving:2.6.0 
--model_config_file=/models/models.config 
-v /save_data/tfs_model/models.config:/models/models.config 
--allow_version_labels_for_unavailable_models &

注意!注意!注意!
target后面的/models/是固定写法,不能修改。
就是将本地的source路径与容器的target路径,进行映射,本地source下的文件夹与容器target文件夹进行内容共享。model.config中的base_path写路径映射后模型在容器中的路径。

命令解析:

  1. docker run
    这是 Docker 的核心命令,用于创建并启动一个新的容器。
  2. -p 8500:8500 -p 8501:8501
    这部分指定了端口映射:
    8500:8500 表示将宿主机的 8500 端口映射到容器的 8500 端口。
    8501:8501 表示将宿主机的 8501 端口映射到容器的 8501 端口。
    TensorFlow Serving 默认使用 8500 端口进行 gRPC 通信,8501 端口用于 HTTP/REST API 通信,通过这种方式,宿主机可以访问容器内的 TensorFlow Serving 服务。
  3. --mount type=bind,source=/save_data/tfs_model/,target=/models/
    这部分指定了挂载卷:
    --mount 是 Docker 的挂载选项,用于将宿主机的目录或文件挂载到容器内部。
    type=bind 表示使用绑定挂载的方式,将宿主机的文件系统直接映射到容器中。
    source=/save_data/tfs_model/ 指定宿主机上的目录路径,这里是 /save_data/tfs_model/。
    target=/models/ 指定容器内的目标路径,这里是 /models/。
    这样,宿主机的 /save_data/tfs_model/ 目录中的内容会被直接映射到容器的 /models/ 目录中,方便模型文件的共享和访问。
  4. -t tensorflow-serving:2.6.0
    -t 是 Docker 的选项,用于指定容器的名称或标签。
    tensorflow-serving:2.6.0 是 TensorFlow Serving 的 Docker 镜像名称和版本号,表示使用 TensorFlow Serving 2.6.0 版本的镜像来启动容器。
  5. --model_config_file=/models/models.config
    这是 TensorFlow Serving 的一个参数,用于指定模型配置文件的路径:
    --model_config_file 是 TensorFlow Serving 的命令行参数,用于指定模型配置文件的路径。
    /models/models.config 是容器内的路径,指向模型配置文件。这个文件定义了模型的加载和配置信息,例如模型的名称、存储路径等。
  6. -v /save_data/tfs_model/models.config:/models/models.config
    这部分也是挂载卷的操作:
    -v 是 Docker 的挂载选项,与 --mount 类似,用于将宿主机的文件或目录挂载到容器中。
    /save_data/tfs_model/models.config:/models/models.config 表示将宿主机的 /save_data/tfs_model/models.config 文件挂载到容器的 /models/models.config 路径。
    这样,容器可以访问宿主机上的 models.config 文件,确保模型配置的一致性。
  7. --allow_version_labels_for_unavailable_models
    这是 TensorFlow Serving 的另一个参数:
    --allow_version_labels_for_unavailable_models 是 TensorFlow Serving 的一个配置选项,允许为尚未加载的模型版本设置标签。
    这在模型管理中很有用,例如在模型更新或回滚时,可以通过标签快速定位模型版本。
  8. &
    & 是一个 Shell 符号,表示将命令放在后台运行。
    这意味着 Docker 容器将在后台启动,不会阻塞当前终端。

4、同步更新容器的model.config(需修改本地IP)

python 复制代码
config_file = "/save_data/tfs_model/models.config"
channel = grpc.insecure_channel("本地ip:8500")
stub = model_service_pb2_grpc.ModelServiceStub(channel)
request = model_management_pb2.ReloadConfigRequest()

# 读取配置文件内容
config_content = open(config_file, "r").read()
model_server_config = model_server_config_pb2.ModelServerConfig()
model_server_config = text_format.Parse(text=config_content, message=model_server_config)

# 设置请求内容
request.config.CopyFrom(model_server_config)

# 发送请求
request_response = stub.HandleReloadConfigRequest(request, 10)
if request_response.status.error_code == 0:
    print("TF_Serving配置文件已更新.")
else:
    print("TF_Serving配置文件更新失败.")
    print(str(request_response.status.error_code))
    print(str(request_response.status.error_message))
相关推荐
宇钶宇夕9 分钟前
S7-200 SMART 实战:自动包装控制系统的指令应用拆解
运维·自动化
半桔36 分钟前
【Linux手册】信号量与建造者模式:以 PV 操作保证并发安全,分步组装构建复杂对象
linux·运维·安全·建造者模式
雷工笔记44 分钟前
Linux系统学习之注意事项及命令基本格式
linux·运维·服务器
m0_464608261 小时前
Nginx SSL/TLS 配置
运维·nginx·ssl
胡萝卜的兔1 小时前
ssh域名过期,消息推送到企业微信
运维·ssh·企业微信
Lin_Aries_04211 小时前
使用阿里云容器镜像服务 ACR
linux·阿里云·docker·云原生·centos·云计算
TG_yunshuguoji1 小时前
阿里云国际代理:稳定、高效、便捷的数据库服务-云数据库RDS
运维·服务器·数据库·阿里云·云计算
wanhengidc2 小时前
云手机可以用来托管游戏吗?
运维·网络·安全·游戏·智能手机
Insist7532 小时前
OpenEuler安装gitlab,部署gitlab-runner
linux·运维·服务器
zzz.102 小时前
【Kubernetes知识点】CRD客户资源定义及Gateway
云原生·容器·kubernetes