在云中部署N个可扩展的机器学习模型的最佳方法是什么

62次阅读
没有评论

问题描述

有N个不同语言的情感模型,这些模型是在HuggingFace的transformer模型上进行微调的。每个模型的大小约为2-3GB。现在,用户想知道如何将所有这些情感模型部署为一个可扩展的服务,以便在像GCP这样的云平台上优化费用并最大化服务性能(低推理时间或延迟)。

目前,用户将每个模型部署为一个独立的服务。对于每个模型,用户按照以下步骤进行操作:

  1. 使用Flask开发服务:编写服务的代码,包括处理请求的路由和逻辑。
  2. 创建Dockerfile:创建一个Dockerfile来构建服务的Docker镜像。
  3. 构建Docker镜像:构建服务的Docker镜像。
  4. 将Docker镜像推送到GCR:在GCR中创建一个新的仓库,并将Docker镜像推送到其中。
  5. 创建GKE集群:进入Kubernetes Engine控制台,创建一个新的集群。选择适当数量的节点,并配置所需的资源。
  6. 创建GKE部署:创建一个新的部署,并将其与我们在步骤6中创建的GCR仓库中的镜像关联,并配置所需的副本数。
  7. 创建云负载均衡器:进入Google Cloud控制台,创建一个新的云负载均衡器。将步骤6中创建的GKE部署作为负载均衡器的目标。
  8. 更新DNS以指向负载均衡器:然后,更新DNS设置以指向步骤7中创建的负载均衡器的IP地址。
  9. 监控服务:使用Stackdriver监控服务,确保其正常运行,并运行所需数量的副本。
  10. 扩展服务:必要时,使用GKE的自动扩展功能根据流量或其他指标自动扩展运行您的微服务的副本数。

用户对每个模型都按照相同的步骤进行部署,并将模型部署为一个独立的服务。然而,这种方法在月底会花费用户很多钱。

因此,用户希望了解一种更好的方式来以可扩展的方式部署多个模型作为一个服务,以便在云中优化费用,同时最大化性能。

解决方案

请注意以下操作注意版本差异及修改前做好备份。

方案1:使用单个服务和模型路由

一个更好的方法是将所有模型部署为一个服务,并使用模型路由来区分不同的模型。这样可以减少部署和维护的工作量,并且可以更好地优化云费用。

以下是实现这个方案的步骤:

  1. 开发服务:使用Flask或其他框架开发一个服务,该服务将处理所有模型的推理请求。
  2. 创建Dockerfile:创建一个Dockerfile来构建服务的Docker镜像。
  3. 构建Docker镜像:构建服务的Docker镜像。
  4. 推送Docker镜像到GCR:创建一个新的GCR仓库,并将Docker镜像推送到其中。
  5. 创建GKE集群:在Kubernetes Engine控制台上创建一个新的集群。选择适当数量的节点和所需的资源。
  6. 创建GKE部署:创建一个新的部署,并将其与GCR仓库中的镜像关联,并配置所需的副本数。
  7. 创建云负载均衡器:在Google Cloud控制台上创建一个新的云负载均衡器。将GKE部署作为负载均衡器的目标。
  8. 更新DNS以指向负载均衡器:更新DNS设置以指向负载均衡器的IP地址。

以下是一个示例的Dockerfile,用于构建服务的Docker镜像:

FROM python:3.8-slim-buster

WORKDIR /app

COPY requirements.txt .
RUN pip install --no-cache-dir -r requirements.txt

COPY . .

CMD ["python", "app.py"]

在这个示例中,我们使用Python 3.8作为基础镜像,并将工作目录设置为/app。然后,我们将requirements.txt复制到工作目录,并安装所需的Python依赖。最后,我们将整个应用程序复制到工作目录,并使用CMD指令来运行app.py

在开发服务时,可以使用模型路由来区分不同的模型。例如,可以使用URL路径或查询参数来指定要使用的模型。在服务内部,可以根据路由来加载相应的模型,并进行推理。

方案2:使用模型服务器

另一种方法是使用模型服务器,如TensorFlow Serving或Triton Inference Server。这些服务器可以帮助您更好地管理和扩展多个模型,并提供低延迟的推理性能。

以下是实现这个方案的步骤:

  1. 准备模型:将每个模型导出为TensorFlow SavedModel或ONNX格式。
  2. 安装模型服务器:根据您选择的模型服务器,按照其文档中的说明进行安装。
  3. 配置模型服务器:根据您的需求和模型服务器的要求,配置模型服务器以加载和管理您的模型。
  4. 部署模型:将导出的模型放置在模型服务器指定的目录中。
  5. 启动模型服务器:启动模型服务器,并确保它正在运行并可以接受推理请求。

使用模型服务器的好处是它们提供了更好的模型管理和扩展性能。您可以使用模型服务器的API来加载和卸载模型,以及进行推理请求。此外,模型服务器通常具有内置的负载均衡和自动扩展功能,可以根据流量自动调整模型的副本数。

请注意,不同的模型服务器可能有不同的配置和部署步骤。请参考所选模型服务器的文档以获取更详细的说明。

方案3:使用Serverless架构

另一种选择是使用Serverless架构,如AWS Lambda或Google Cloud Functions。这种架构可以帮助您更好地优化云费用,并提供自动扩展和低延迟的推理性能。

以下是实现这个方案的步骤:

  1. 准备模型:将每个模型导出为TensorFlow SavedModel或ONNX格式。
  2. 创建函数:根据您选择的Serverless平台,创建一个函数来处理推理请求。您可以使用Python、Node.js或其他支持的语言编写函数代码。
  3. 配置函数:根据您的需求和Serverless平台的要求,配置函数以加载和管理您的模型。
  4. 部署函数:将导出的模型和函数代码上传到Serverless平台。
  5. 配置触发器:配置触发器以触发函数,并指定如何传递推理请求的数据。
  6. 启动函数:启动函数,并确保它正在运行并可以接受推理请求。

使用Serverless架构的好处是它可以根据流量自动扩展函数的副本数,并且您只需为实际使用的计算资源付费。这可以帮助您更好地优化云费用,并提供低延迟的推理性能。

请注意,不同的Serverless平台可能有不同的配置和部署步骤。请参考所选平台的文档以获取更详细的说明。

方案比较

下表比较了上述三种方案的优缺点:

方案 优点 缺点
方案1:使用单个服务和模型路由 – 减少部署和维护的工作量
– 更好地优化云费用
– 需要手动管理模型路由
– 可能需要更多的开发工作
方案2:使用模型服务器 – 提供更好的模型管理和扩展性能
– 内置负载均衡和自动扩展功能
– 需要额外的配置和部署步骤
– 可能需要更多的资源
方案3:使用Serverless架构 – 自动扩展和低延迟的推理性能
– 仅为实际使用的计算资源付费
– 需要额外的配置和部署步骤
– 可能需要更多的开发工作

根据您的需求和偏好,选择适合您的方案。

总结

在云中部署N个可扩展的机器学习模型作为一个服务,有多种方法可供选择。您可以使用单个服务和模型路由,使用模型服务器,或者使用Serverless架构。每种方法都有其优点和缺点,根据您的需求和偏好进行选择。

希望本文对您有所帮助!如果您有任何其他问题,请随时提问。

正文完