From f3265534be3b4242399e4555be4ab3e0f164a7cd Mon Sep 17 00:00:00 2001 From: Xingyu Wang Date: Wed, 1 Sep 2021 23:37:32 +0800 Subject: [PATCH] PRF&PUB @chunibyo-wly https://linux.cn/article-13744-1.html --- ...loy a deep learning model on Kubernetes.md | 255 +++++++++--------- 1 file changed, 131 insertions(+), 124 deletions(-) rename {translated/tech => published}/20200908 Deploy a deep learning model on Kubernetes.md (51%) diff --git a/translated/tech/20200908 Deploy a deep learning model on Kubernetes.md b/published/20200908 Deploy a deep learning model on Kubernetes.md similarity index 51% rename from translated/tech/20200908 Deploy a deep learning model on Kubernetes.md rename to published/20200908 Deploy a deep learning model on Kubernetes.md index 5a83fe466b..850b5604c0 100644 --- a/translated/tech/20200908 Deploy a deep learning model on Kubernetes.md +++ b/published/20200908 Deploy a deep learning model on Kubernetes.md @@ -1,46 +1,43 @@ [#]: collector: (lujun9972) [#]: translator: (chunibyo-wly) -[#]: reviewer: ( ) -[#]: publisher: ( ) -[#]: url: ( ) +[#]: reviewer: (wxy) +[#]: publisher: (wxy) +[#]: url: (https://linux.cn/article-13744-1.html) [#]: subject: (Deploy a deep learning model on Kubernetes) [#]: via: (https://opensource.com/article/20/9/deep-learning-model-kubernetes) [#]: author: (Chaimaa Zyani https://opensource.com/users/chaimaa) 在 Kubernetes 上部署一个深度学习模型 ====== -了解如何使用 Kubermatic Kubernetes 平台部署、缩放与管理图像识别深度学习模型。 -![Brain on a computer screen][1] +> 了解如何使用 Kubermatic Kubernetes 平台来部署、扩展与管理图像识别预测的深度学习模型。 -随着企业增加了对人工智能(AI)、机器学习(ML)与深度学习(DL)的使用,出现了一个关键问题:如何将机器学习的发展进行规模化与产业化?这些讨论经常聚焦于机器学习模型本身;然而,模型仅仅只是完整解决方案的其中一环。为了达到生产环境的应用和规模,模型的开发过程必须还包括一个可以说明开发前后关键活动以及可公用部署的可重复过程。 +![](https://img.linux.net.cn/data/attachment/album/202109/01/233417ryy87hyza7jmgy33.jpg) -本文演示了如何使用[Kubermatic Kubernetes Platform][2]对图像识别预测的深度学习模型进行部署,缩放与管理。 +随着企业增加了对人工智能(AI)、机器学习(ML)与深度学习(DL)的使用,出现了一个关键问题:如何将机器学习的开发进行规模化与产业化?这些讨论经常聚焦于机器学习模型本身;然而,模型仅仅只是完整解决方案的其中一环。为了达到生产环境的应用和规模,模型的开发过程必须还包括一个可以说明开发前后关键活动以及可公用部署的可重复过程。 -Kubermatic Kubernetes 平台是一个可以与机器学习/深度学习工作流结合进行完整集群生命周期管理的一个自动且灵活的开源生产级 Kubernetes 集群管理工具。 +本文演示了如何使用 [Kubermatic Kubernetes 平台][2] 对图像识别预测的深度学习模型进行部署、扩展与管理。 + +Kubermatic Kubernetes 平台是一个生产级的开源 Kubernetes 集群管理工具,提供灵活性和自动化,与机器学习/深度学习工作流程整合,具有完整的集群生命周期管理。 ### 开始 -这个例子部署了一个图像识别的深度学习模型。它使用了包含 60,000 张分属 10 个类别的 32x32 彩色图 [CIFAR-10][3] 像数据集,同时使用了 [Apache MXNet][5] 的 [Gluon][4] 与 NVIDIA GPUs 进行加速计算。如果你希望使用 CIFAR-10 数据集的预训练模型,可以查阅 [getting started guide][6]。 +这个例子部署了一个用于图像识别的深度学习模型。它使用了 [CIFAR-10][3] 数据集,包含了 60,000 张分属 10 个类别的 32x32 彩色图,同时使用了 [Apache MXNet][5] 的 [Gluon][4] 与 NVIDIA GPU 进行加速计算。如果你希望使用 CIFAR-10 数据集的预训练模型,可以查阅其 [入门指南][6]。 使用训练集中的样本对模型训练 200 次,只要训练误差保持缓慢减少,就可以保证模型不会过拟合。下方图展示了训练的过程: ![深度学习模型训练 loss 图][7] -(Chaimaa Zyami, [CC BY-SA 4.0][8]) - 训练结束后,必须保存模型训练所得到的参数,以便稍后可以加载它们: - -```python +``` file_name = "net.params" net.save_parameters(file_name) ``` -一旦你的模型训练好了,就可以用 Flask 服务器来封装它。下方的程序演示了如何接收 request 中的一张图片作为参数并且在 response 中返回模型的预测结果: +一旦你的模型训练好了,就可以用 Flask 服务器来封装它。下方的程序演示了如何接收请求中的一张图片作为参数,并在响应中返回模型的预测结果: - -```python +``` from gluoncv.model_zoo import get_model import matplotlib.pyplot as plt from mxnet import gluon, nd, image @@ -80,156 +77,166 @@ if __name__ == '__main__': 在将模型部署到 Kubernetes 前,你需要先安装 Docker 并使用你的模型创建一个镜像。 - 1. 下载、安装并启动 Docker: -```bash -sudo yum install -y yum-utils device-mapper-persistent-data lvm2 +1. 下载、安装并启动 Docker: -sudo yum-config-manager --add-repo + ``` + sudo yum install -y yum-utils device-mapper-persistent-data lvm2 + sudo yum-config-manager --add-repo + sudo yum install docker-ce + sudo systemctl start docker + ``` -sudo yum install docker-ce +2. 创建一个你用来管理代码与依赖的文件夹: -sudo systemctl start docker + ``` + mkdir kubermatic-dl + cd kubermatic-dl + ``` -``` - 2. 创建一个你用来管理代码与依赖的文件夹: -```bash -mkdir kubermatic-dl -cd kubermatic-dl -``` +3. 创建 `requirements.txt` 文件管理代码运行时需要的所有依赖: - 3. 创建 `requirements.txt` 文件管理代码运行时需要的所有依赖: -``` -flask -gluoncv -matplotlib -mxnet -requests -Pillow + ``` + flask + gluoncv + matplotlib + mxnet + requests + Pillow + ``` -``` - 4. 创建 Dockerfile,Docker 将根据这个文件创建镜像: -``` -FROM python:3.6 -WORKDIR /app -COPY requirements.txt /app -RUN pip install -r ./requirements.txt -COPY app.py /app -CMD ["python", "app.py"] -``` +4. 创建 `Dockerfile`,Docker 将根据这个文件创建镜像: -这个 Dockerfile 主要可以分为三个部分。首先,Docker 会下载 Python 的基础镜像。然后,Docker 会使用 Python 的包管理工具 `pip` 安装 `requirements.txt` 记录的包。最后,Docker 会通过执行 `python app.py` 来运行你的脚本。 + ``` + FROM python:3.6 + WORKDIR /app + COPY requirements.txt /app + RUN pip install -r ./requirements.txt + COPY app.py /app + CMD ["python", "app.py"] + ``` + 这个 `Dockerfile` 主要可以分为三个部分。首先,Docker 会下载 Python 的基础镜像。然后,Docker 会使用 Python 的包管理工具 `pip` 安装 `requirements.txt` 记录的包。最后,Docker 会通过执行 `python app.py` 来运行你的脚本。 - 1. 构建 Docker 容器: `sudo docker build -t kubermatic-dl:latest .` 这条命令使用 `kubermatic-dl` 镜像为你当前工作目录的代码创建了一个容器。 - - 2. 使用 `sudo docker run -d -p 5000:5000 kubermatic-dl` 命令检查你的容器可以在你的主机上正常运行。 - - 3. 使用 `sudo docker ps -a` 命令查看你本地容器的运行状态: - -![查看容器的运行状态][9] - -(Chaimaa Zyami, [CC BY-SA 4.0][8]) +5. 构建 Docker 容器: + + ``` + sudo docker build -t kubermatic-dl:latest . + ``` + 这条命令使用 `kubermatic-dl` 镜像为你当前工作目录的代码创建了一个容器。 +6. 使用 + + ``` + sudo docker run -d -p 5000:5000 kubermatic-dl + ``` + + 命令检查你的容器可以在你的主机上正常运行。 +7. 使用 + + ``` + sudo docker ps -a + ``` + 命令查看你本地容器的运行状态: + ![查看容器的运行状态][9] ### 将你的模型上传到 Docker Hub 在向 Kubernetes 上部署模型前,你的镜像首先需要是公开可用的。你可以通过将你的模型上传到 [Docker Hub][10] 来将它公开。(如果你没有 Docker Hub 的账号,你需要先创建一个) - 1. 在终端中登录 Docker Hub 账号:`sudo docker login` +1. 在终端中登录 Docker Hub 账号: + + ``` + sudo docker login + ``` - 2. 给你的镜像打上 tag ,这样你的模型上传到 Docker Hub 后也能拥有版本信息 -```bash -sudo docker tag <your-image-id> <your-docker-hub-name>/<your-app-name> +2. 给你的镜像打上标签,这样你的模型上传到 Docker Hub 后也能拥有版本信息: -sudo docker push <your-docker-hub-name>/<your-app-name> -``` + ``` + sudo docker tag / -![给镜像打上 tag][11] - -(Chaimaa Zyami, [CC BY-SA 4.0][8]) - - 3. 使用 `sudo docker images` 命令检查你的镜像的 ID。 + sudo docker push / + ``` + ![给镜像打上 tag][11] +3. 使用 + ``` + sudo docker images + ``` + + 命令检查你的镜像的 ID。 ### 部署你的模型到 Kubernetes 集群 - 1. 首先在 Kubermatic Kubernetes 平台创建一个项目, 然后根据 [快速开始][12] 创建一个 Kubernetes 集群。 +1. 首先在 Kubermatic Kubernetes 平台创建一个项目, 然后根据 [快速开始][12] 创建一个 Kubernetes 集群。 -![创建一个 Kubernetes 集群][13] + ![创建一个 Kubernetes 集群][13] -(Chaimaa Zyami, [CC BY-SA 4.0][8]) +2. 下载用于访问你的集群的 `kubeconfig`,将它放置在下载目录中,并记得设置合适的环境变量,使得你的环境能找到它: - 2. 下载用于访问你的集群的 `kubeconfig`,将它放置在下载目录中,并记得设置合适的环境变量,使得你的环境能找到它: + ![Kubernetes 集群示例][14] -![Kubernetes 集群示例][14] +3. 使用 `kubectl` 命令检查集群信息,例如,需要检查 `kube-system` 是否在你的集群正常启动了就可以使用命令 `kubectl cluster-info` -(Chaimaa Zyami, [CC BY-SA 4.0][8]) + ![查看集群信息][15] - 3. 使用 `kubectl` 命令检查集群信息,例如,需要检查 `kube-system` 是否在你的集群正常启动了就可以使用命令 `kubectl cluster-info` +4. 为了在集群中运行容器,你需要创建一个部署用的配置文件(`deployment.yaml`),再运行 `apply` 命令将其应用于集群中: -![查看集群信息][15] + ``` + apiVersion: apps/v1 + kind: Deployment + metadata: +   name: kubermatic-dl-deployment + spec: +   selector: +     matchLabels: +       app: kubermatic-dl +   replicas: 3 +   template: +     metadata: +       labels: +         app: kubermatic-dl +     spec: +      containers: +      - name: kubermatic-dl +        image: kubermatic00/kubermatic-dl:latest +        imagePullPolicy: Always +        ports: +        - containerPort: 8080 -(Chaimaa Zyami, [CC BY-SA 4.0][8]) + ``` + + ``` + kubectl apply -f deployment.yaml` + ``` - 4. 为了在集群中运行容器,你需要创建一个部署用的配置文件(`deployment.yaml`),再运行 `apply` 命令将其应用于集群中: -```yaml -apiVersion: apps/v1 -kind: Deployment -metadata: -  name: kubermatic-dl-deployment -spec: -  selector: -    matchLabels: -      app: kubermatic-dl -  replicas: 3 -  template: -    metadata: -      labels: -        app: kubermatic-dl -    spec: -     containers: -     - name: kubermatic-dl -       image: kubermatic00/kubermatic-dl:latest -       imagePullPolicy: Always -       ports: -       - containerPort: 8080 +5. 为了将你的部署开放到公网环境,你需要一个能够给你的容器创建外部可达 IP 地址的服务: + + ``` + kubectl expose deployment kubermatic-dl-deployment  --type=LoadBalancer --port 80 --target-port 5000` + ``` -``` `kubectl apply -f deployment.yaml` -``` +6. 就快大功告成了!首先检查你布署的服务的状态,然后通过 IP 请求的你图像识别 API: + + ``` + kubectl get service + ``` - 5. 为了将你的部署开放到公网环境,你需要一个能够给你的容器创建外部可达 IP 地址的服务:`kubectl expose deployment kubermatic-dl-deployment  --type=LoadBalancer --port 80 --target-port 5000` + ![获取请求图像识别 API 的 IP 地址][16] - 6. 就快大功告成了!首先检查你布署的服务的状态,然后通过 IP 请求的你图像识别 API:`kubectl get service` - - -![获取请求图像识别 API 的 IP 地址][16] - -(Chaimaa Zyami, [CC BY-SA 4.0][8]) - - 7. 最后根据你的外部 IP 使用以下两张图片对你的图像识别服务进行测试: - -![马][17] - -(Chaimaa Zyami, [CC BY-SA 4.0][8]) - -![狗][18] - -(Chaimaa Zyami, [CC BY-SA 4.0][8]) - -![测试 API][19] - -(Chaimaa Zyami, [CC BY-SA 4.0][8]) +7. 最后根据你的外部 IP 使用以下两张图片对你的图像识别服务进行测试: + ![马][17] + ![狗][18] + ![测试 API][19] ### 总结 - 在这篇教程中,你可以创建一个深度学习模型,并且使用 Flask 提供 [REST API][20] 服务。它介绍了如何将应用放在 Docker 容器中,如何将这个镜像上传到 Docker Hub 中,以及如何使用 Kubernetes 部署你的服务。只需几个简单的命令,你就可以使用 Kubermatic Kubernetes 平台部署该应用程序,并且开放服务给别人使用。 -------------------------------------------------------------------------------- @@ -238,8 +245,8 @@ via: https://opensource.com/article/20/9/deep-learning-model-kubernetes 作者:[Chaimaa Zyani][a] 选题:[lujun9972][b] -译者:[译者ID](https://github.com/chunibyo-wly) -校对:[校对者ID](https://github.com/校对者ID) +译者:[chunibyo-wly](https://github.com/chunibyo-wly) +校对:[wxy](https://github.com/wxy) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出