mirror of
https://github.com/LCTT/TranslateProject.git
synced 2025-01-25 23:11:02 +08:00
PRF:20170113 How to install a Ceph Storage Cluster on Ubuntu 16.04
@wyangsun
This commit is contained in:
parent
a7ed37af64
commit
55fb7ff359
@ -1,33 +1,23 @@
|
||||
如何在Ubuntu 16.04中安装 Ceph 存储集群
|
||||
如何在 Ubuntu 16.04 中安装 Ceph 存储集群
|
||||
============================================================
|
||||
|
||||
### 在此页
|
||||
|
||||
1. [第1步 - 配置所有节点][1]
|
||||
2. [第2步 - 配置 SSH 服务器][2]
|
||||
3. [第3步 - 配置 Ubuntu 防火墙][3]
|
||||
4. [第4步 - 配置 Ceph OSD 节点][4]
|
||||
5. [第5步 - 建立 Ceph 集群][5]
|
||||
6. [第6步 - 测试 Ceph][6]
|
||||
7. [参考][7]
|
||||
|
||||
Ceph 是一个高性能,可靠行和可扩展性的开源存储平台。他是一个自由的分部署存储系统,提供了一个对象,块,文件级存储接口和缺少一个节点依然可以运行的特性。
|
||||
Ceph 是一个高性能、可靠、可扩展的开源存储平台。它是一个自由的分布式存储系统,提供了对象、块和文件级存储的接口,并可以不受单点故障的影响而运行。
|
||||
|
||||
在这个教程中,我将指导你在 Ubuntu 16.04 服务器上安装建立一个 Ceph 集群。Ceph 集群包括这些组件:
|
||||
|
||||
* **Ceph OSDs (ceph-osd)** - 控制数据存储,数据复制和恢复。Ceph 集群需要至少两个 Ceph OSD 服务器。这次安装我们将使用三个 Ubuntu 16.04 服务器。
|
||||
* **Ceph Monitor (ceph-mon)** - 监控集群状态和运行的 OSD 映射 和 CRUSH 映射。这里我们使用一个服务器。
|
||||
* **Ceph OSD (ceph-osd)** - 控制数据存储,数据复制和恢复。Ceph 集群需要至少两个 Ceph OSD 服务器。这次安装中我们将使用三个 Ubuntu 16.04 服务器。
|
||||
* **Ceph Monitor (ceph-mon)** - 监控集群状态并运行 OSD 映射 和 CRUSH 映射。这里我们使用一个服务器。
|
||||
* **Ceph Meta Data Server (ceph-mds)** - 如果你想把 Ceph 作为文件系统使用,就需要这个。
|
||||
|
||||
### **前提条件**
|
||||
### 前提条件
|
||||
|
||||
* 6个安装了 Ubuntu 16.04 的服务器节点
|
||||
* 6 个安装了 Ubuntu 16.04 的服务器节点
|
||||
* 所有节点上的 root 权限
|
||||
|
||||
我将使用下面这些 hostname /IP 安装:
|
||||
|
||||
```
|
||||
hostname IP address
|
||||
主机名 IP 地址
|
||||
ceph-admin 10.0.15.10
|
||||
mon1 10.0.15.11
|
||||
osd1 10.0.15.21
|
||||
@ -36,20 +26,20 @@ osd3 10.0.15.23
|
||||
client 10.0.15.15
|
||||
```
|
||||
|
||||
### 第1步 - 配置所有节点
|
||||
### 第 1 步 - 配置所有节点
|
||||
|
||||
这次安装,我将配置所有的6个节点来准备安装 Ceph 集群软件。所以你必须在所有节点运行下面的命令。然后确保所有节点都安装了 ssh-server。
|
||||
这次安装,我将配置所有的 6 个节点来准备安装 Ceph 集群软件。所以你必须在所有节点运行下面的命令。然后确保所有节点都安装了 ssh-server。
|
||||
|
||||
**创建 Ceph 用户**
|
||||
#### 创建 Ceph 用户
|
||||
|
||||
在所有节点创建一个名为'**cephuser**'的新用户
|
||||
在所有节点创建一个名为 `cephuser` 的新用户
|
||||
|
||||
```
|
||||
useradd -m -s /bin/bash cephuser
|
||||
passwd cephuser
|
||||
```
|
||||
|
||||
创建完新用户后,我们需要配置 **cephuser** 无密码 sudo 权限。这意味着 ‘cephuser’ 首次可以不输入密码执行和获取 sudo 权限。
|
||||
创建完新用户后,我们需要给 `cephuser` 配置无密码的 sudo 权限。这意味着 `cephuser` 可以不先输入密码而获取到 sudo 权限运行。
|
||||
|
||||
运行下面的命令来完成配置。
|
||||
|
||||
@ -59,9 +49,9 @@ chmod 0440 /etc/sudoers.d/cephuser
|
||||
sed -i s'/Defaults requiretty/#Defaults requiretty'/g /etc/sudoers
|
||||
```
|
||||
|
||||
**安装和配置 NTP**
|
||||
#### 安装和配置 NTP
|
||||
|
||||
安装 NTP 来同步所有节点的日期和时间。运行 ntpdate 命令通过 NTP 设置日期。我们将使用 US 池 NTP 服务器。然后开启并使 NTP 服务在开机时启动。
|
||||
安装 NTP 来同步所有节点的日期和时间。先运行 `ntpdate` 命令通过 NTP 设置日期。我们将使用 US 池的 NTP 服务器。然后开启并使 NTP 服务在开机时启动。
|
||||
|
||||
```
|
||||
sudo apt-get install -y ntp ntpdate ntp-doc
|
||||
@ -71,15 +61,15 @@ systemctl enable ntp
|
||||
systemctl start ntp
|
||||
```
|
||||
|
||||
**安装 Open-vm-tools**
|
||||
#### 安装 Open-vm-tools
|
||||
|
||||
如果你正在VMware里运行所有节点,你需要安装这个虚拟化工具。
|
||||
如果你正在 VMware 里运行所有节点,你需要安装这个虚拟化工具。
|
||||
|
||||
```
|
||||
sudo apt-get install -y open-vm-tools
|
||||
```
|
||||
|
||||
**安装 Python 和 parted**
|
||||
#### 安装 Python 和 parted
|
||||
|
||||
在这个教程,我们需要 python 包来建立 ceph 集群。安装 python 和 python-pip。
|
||||
|
||||
@ -87,15 +77,15 @@ sudo apt-get install -y open-vm-tools
|
||||
sudo apt-get install -y python python-pip parted
|
||||
```
|
||||
|
||||
**配置 Hosts 文件**
|
||||
#### 配置 Hosts 文件
|
||||
|
||||
用 vim 编辑器编辑所有节点的 hosts 文件。
|
||||
用 vim 编辑器编辑所有节点的 `hosts` 文件。
|
||||
|
||||
```
|
||||
vim /etc/hosts
|
||||
```
|
||||
|
||||
Paste the configuration below:
|
||||
粘帖如下配置:
|
||||
|
||||
```
|
||||
10.0.15.10 ceph-admin
|
||||
@ -106,9 +96,9 @@ Paste the configuration below:
|
||||
10.0.15.15 ceph-client
|
||||
```
|
||||
|
||||
保存 hosts 文件,然后退出 vim 编辑器。
|
||||
保存 `hosts` 文件,然后退出 vim 编辑器。
|
||||
|
||||
现在你可以试着在两个服务器间 ping 主机名来测试网络连通性。
|
||||
现在你可以试着在两个服务器间 `ping` 主机名来测试网络连通性。
|
||||
|
||||
```
|
||||
ping -c 5 mon1
|
||||
@ -118,24 +108,24 @@ ping -c 5 mon1
|
||||
![Ceph cluster Installation on Ubuntu 16.04](https://www.howtoforge.com/images/how-to-install-a-ceph-cluster-on-ubuntu-16-04/1.png)
|
||||
][8]
|
||||
|
||||
### 第2步 - 配置 SSH 服务器
|
||||
### 第 2 步 - 配置 SSH 服务器
|
||||
|
||||
这一步,我们将配置 **ceph-admin 节点**。管理节点是用来配置监控节点和 osd 节点的。登录到 ceph-admin 节点然后使用 '**cephuser**'。
|
||||
这一步,我们将配置 **ceph-admin 节点**。管理节点是用来配置监控节点和 osd 节点的。登录到 ceph-admin 节点然后使用 `cephuser` 用户。
|
||||
|
||||
```
|
||||
ssh root@ceph-admin
|
||||
su - cephuser
|
||||
```
|
||||
|
||||
管理节点用来安装配置所有集群节点,所以 ceph-admin 用户必须有不使用密码连接到所有节点的权限。我们需要为 'ceph-admin' 节点的 'cephuser' 用户配置无密码登录权限。
|
||||
管理节点用来安装配置所有集群节点,所以 ceph-admin 上的用户必须有不使用密码连接到所有节点的权限。我们需要为 'ceph-admin' 节点的 `cephuser` 用户配置无密码 SSH 登录权限。
|
||||
|
||||
生成 '**cephuser**' 的 ssh 密钥。
|
||||
生成 `cephuser` 的 ssh 密钥。
|
||||
|
||||
```
|
||||
ssh-keygen
|
||||
```
|
||||
|
||||
让密码为空
|
||||
让密码为空。
|
||||
|
||||
下面,为 ssh 创建一个配置文件
|
||||
|
||||
@ -143,7 +133,7 @@ ssh-keygen
|
||||
vim ~/.ssh/config
|
||||
```
|
||||
|
||||
Paste the configuration below:
|
||||
粘帖如下配置:
|
||||
|
||||
```
|
||||
Host ceph-admin
|
||||
@ -177,13 +167,13 @@ Host ceph-client
|
||||
![Ceph-admin configuration](https://www.howtoforge.com/images/how-to-install-a-ceph-cluster-on-ubuntu-16-04/2.png)
|
||||
][9]
|
||||
|
||||
改变配置文件权限为644。
|
||||
改变配置文件权限为 644。
|
||||
|
||||
```
|
||||
chmod 644 ~/.ssh/config
|
||||
```
|
||||
|
||||
现在使用 ssh-copy-id 命令增加密钥到所有节点。
|
||||
现在使用 `ssh-copy-id` 命令增加密钥到所有节点。
|
||||
|
||||
```
|
||||
ssh-keyscan ceph-osd1 ceph-osd2 ceph-osd3 ceph-client mon1 >> ~/.ssh/known_hosts
|
||||
@ -193,7 +183,7 @@ ssh-copy-id ceph-osd3
|
||||
ssh-copy-id mon1
|
||||
```
|
||||
|
||||
当请求输入密码时输入你的 cephuser 密码。
|
||||
当请求输入密码时输入你的 `cephuser` 密码。
|
||||
|
||||
[
|
||||
![Ceph-admin deploy ssh key to all cluster nodes](https://www.howtoforge.com/images/how-to-install-a-ceph-cluster-on-ubuntu-16-04/3.png)
|
||||
@ -209,9 +199,9 @@ ssh ceph-osd1
|
||||
![SSH Less password from ceph-admin to all nodes cluster](https://www.howtoforge.com/images/how-to-install-a-ceph-cluster-on-ubuntu-16-04/4.png)
|
||||
][11]
|
||||
|
||||
### 第3步 - 配置 Ubuntu 防火墙
|
||||
### 第 3 步 - 配置 Ubuntu 防火墙
|
||||
|
||||
出于安全原因,我们需要在服务器打开防火墙。我们更愿使用 Ufw(不复杂的防火墙),Ubuntu 默认的防火墙,来保护系统。在这一步,我们在所有节点开启 ufw,然后打开 ceph-admin,ceph-mon 和 ceph-osd 需要使用的端口。
|
||||
出于安全原因,我们需要在服务器打开防火墙。我们更愿使用 Ufw(不复杂防火墙)来保护系统,这是 Ubuntu 默认的防火墙。在这一步,我们在所有节点开启 ufw,然后打开 ceph-admin、ceph-mon 和 ceph-osd 需要使用的端口。
|
||||
|
||||
登录到 ceph-admin 节点,然后安装 ufw 包。
|
||||
|
||||
@ -220,7 +210,7 @@ ssh root@ceph-admin
|
||||
sudo apt-get install -y ufw
|
||||
```
|
||||
|
||||
打开 80,2003 和 4505-4506 端口,然后重载防火墙。
|
||||
打开 80,2003 和 4505-4506 端口,然后重启防火墙。
|
||||
|
||||
```
|
||||
sudo ufw allow 22/tcp
|
||||
@ -239,7 +229,7 @@ sudo ufw enable
|
||||
![UFW Firewall with Ceph service](https://www.howtoforge.com/images/how-to-install-a-ceph-cluster-on-ubuntu-16-04/5.png)
|
||||
][12]
|
||||
|
||||
从 ceph-admin 节点,登录到监控节点 'mon1' 然后安装 ufw。
|
||||
从 ceph-admin 节点,登录到监控节点 mon1 然后安装 ufw。
|
||||
|
||||
```
|
||||
ssh mon1
|
||||
@ -254,7 +244,7 @@ sudo ufw allow 6789/tcp
|
||||
sudo ufw enable
|
||||
```
|
||||
|
||||
最后,在每个 osd 节点:ceph-osd1,ceph-osd2 和 ceph-osd3 打开这些端口 6800-7300。
|
||||
最后,在每个 osd 节点 ceph-osd1、ceph-osd2 和 ceph-osd3 上打开这些端口 6800-7300。
|
||||
|
||||
从 ceph-admin 登录到每个 ceph-osd 节点安装 ufw。
|
||||
|
||||
@ -263,7 +253,7 @@ ssh ceph-osd1
|
||||
sudo apt-get install -y ufw
|
||||
```
|
||||
|
||||
在 osd 节点打开端口并重载防火墙。
|
||||
在 osd 节点打开端口并重启防火墙。
|
||||
|
||||
```
|
||||
sudo ufw allow 22/tcp
|
||||
@ -273,12 +263,12 @@ sudo ufw enable
|
||||
|
||||
ufw 防火墙配置完成。
|
||||
|
||||
### 第4步 - 配置 Ceph OSD 节点
|
||||
### 第 4 步 - 配置 Ceph OSD 节点
|
||||
|
||||
这个教程里,我们有 3 个 OSD 节点,每个节点有两块硬盘分区。
|
||||
|
||||
1. **/dev/sda** for root partition
|
||||
2. **/dev/sdb** is empty partition - 20GB
|
||||
1. **/dev/sda** 用于根分区
|
||||
2. **/dev/sdb** 空闲分区 - 20GB
|
||||
|
||||
我们要使用 **/dev/sdb** 作为 ceph 磁盘。从 ceph-admin 节点,登录到所有 OSD 节点,然后格式化 /dev/sdb 分区为 **XFS** 文件系统。
|
||||
|
||||
@ -294,19 +284,19 @@ ssh ceph-osd3
|
||||
sudo fdisk -l /dev/sdb
|
||||
```
|
||||
|
||||
格式化 /dev/sdb 分区为 XFS 文件系统,使用 parted 命令创建一个 GPT 分区表。
|
||||
格式化 /dev/sdb 分区为 XFS 文件系统,使用 `parted` 命令创建一个 GPT 分区表。
|
||||
|
||||
```
|
||||
sudo parted -s /dev/sdb mklabel gpt mkpart primary xfs 0% 100%
|
||||
```
|
||||
|
||||
下面,使用 mkfs 命令格式化分区为 XFS 格式。
|
||||
下面,使用 `mkfs` 命令格式化分区为 XFS 格式。
|
||||
|
||||
```
|
||||
sudo mkfs.xfs -f /dev/sdb
|
||||
```
|
||||
|
||||
现在检查分区,然后你会看见 XFS /dev/sdb 分区。
|
||||
现在检查分区,然后你会看见一个 XFS 文件系统的 /dev/sdb 分区。
|
||||
|
||||
```
|
||||
sudo fdisk -s /dev/sdb
|
||||
@ -317,31 +307,30 @@ sudo blkid -o value -s TYPE /dev/sdb
|
||||
![Format partition ceph OSD nodes](https://www.howtoforge.com/images/how-to-install-a-ceph-cluster-on-ubuntu-16-04/6.png)
|
||||
][13]
|
||||
|
||||
### 第5步 - 创建 Ceph 集群
|
||||
### 第 5 步 - 创建 Ceph 集群
|
||||
|
||||
在这步,我们将从 ceph-admin 安装 Ceph 到所有节点。马上开始,登录到 ceph-admin 节点。
|
||||
在这步,我们将从 ceph-admin 安装 Ceph 到所有节点。马上开始,先登录到 ceph-admin 节点。
|
||||
|
||||
```
|
||||
ssh root@ceph-admin
|
||||
su - cephuser
|
||||
```
|
||||
|
||||
**在 ceph-admin 节点上安装 ceph-deploy**
|
||||
#### 在 ceph-admin 节点上安装 ceph-deploy
|
||||
|
||||
首先我们已经在系统上安装了 python 和 python-pip。现在我们需要从 pypi python 仓库安装 Ceph 部署工具 '**ceph-deploy**'。
|
||||
|
||||
Install ceph-deploy on the ceph-admin node with the pip command.
|
||||
用 pip 命令在 ceph-admin 节点安装 ceph-deploy 。
|
||||
|
||||
```
|
||||
sudo pip install ceph-deploy
|
||||
```
|
||||
|
||||
注意: 确保所有节点都已经更新.
|
||||
注意: 确保所有节点都已经更新。
|
||||
|
||||
ceph-deploy 工具已经安装完毕后,为 Ceph 集群配置创建一个新目录。
|
||||
|
||||
**创建一个新集群**
|
||||
#### 创建一个新集群
|
||||
|
||||
创建一个新集群目录。
|
||||
|
||||
@ -350,25 +339,25 @@ mkdir cluster
|
||||
cd cluster/
|
||||
```
|
||||
|
||||
下一步,用 '**ceph-deploy**' 命令通过定义监控节点 '**mon1**' 创建一个新集群。
|
||||
下一步,用 `ceph-deploy` 命令通过定义监控节点 mon1 创建一个新集群。
|
||||
|
||||
```
|
||||
ceph-deploy new mon1
|
||||
```
|
||||
|
||||
命令将在集群目录生成 Ceph 集群配置文件 'ceph.conf'。
|
||||
命令将在集群目录生成 Ceph 集群配置文件 `ceph.conf`。
|
||||
|
||||
[
|
||||
![Generate new ceph cluster configuration](https://www.howtoforge.com/images/how-to-install-a-ceph-cluster-on-ubuntu-16-04/7.png)
|
||||
][14]
|
||||
|
||||
用 vim 编辑 ceph.conf。
|
||||
用 vim 编辑 `ceph.conf`。
|
||||
|
||||
```
|
||||
vim ceph.conf
|
||||
```
|
||||
|
||||
在 [global] 块下,粘贴下面的配置。
|
||||
在 `[global]` 块下,粘贴下面的配置。
|
||||
|
||||
```
|
||||
# Your network address
|
||||
@ -376,9 +365,9 @@ public network = 10.0.15.0/24
|
||||
osd pool default size = 2
|
||||
```
|
||||
|
||||
保存文件并推出编辑器。
|
||||
保存文件并退出编辑器。
|
||||
|
||||
**安装 Ceph 到所有节点**
|
||||
#### 安装 Ceph 到所有节点
|
||||
|
||||
现在用一个命令从 ceph-admin 节点安装 Ceph 到所有节点。
|
||||
|
||||
@ -386,7 +375,7 @@ osd pool default size = 2
|
||||
ceph-deploy install ceph-admin ceph-osd1 ceph-osd2 ceph-osd3 mon1
|
||||
```
|
||||
|
||||
命令将自动安装 Ceph 到所有节点:mon1,osd1-3 和 ceph-admin - 安装将花一些时间。
|
||||
命令将自动安装 Ceph 到所有节点:mon1、osd1-3 和 ceph-admin - 安装将花一些时间。
|
||||
|
||||
现在到 mon1 节点部署监控节点。
|
||||
|
||||
@ -404,9 +393,9 @@ ceph-deploy gatherkeys mon1
|
||||
![Deploy key ceph](https://www.howtoforge.com/images/how-to-install-a-ceph-cluster-on-ubuntu-16-04/8.png)
|
||||
][15]
|
||||
|
||||
**增加 OSDS 到集群**
|
||||
#### 增加 OSD 到集群
|
||||
|
||||
在所有节点上安装了 Ceph 之后,现在我们可以增加 OSD 守护进程到集群。OSD 守护进程将在磁盘 /dev/sdb 分区上创建数据和日志 。
|
||||
在所有节点上安装了 Ceph 之后,现在我们可以增加 OSD 守护进程到该集群。OSD 守护进程将在磁盘 /dev/sdb 分区上创建数据和日志 。
|
||||
|
||||
检查所有 osd 节点的 /dev/sdb 磁盘可用性。
|
||||
|
||||
@ -420,7 +409,7 @@ ceph-deploy disk list ceph-osd1 ceph-osd2 ceph-osd3
|
||||
|
||||
你将看见我们之前创建 XFS 格式的 /dev/sdb。
|
||||
|
||||
下面,在所有节点用 zap 选项删除分区表。
|
||||
下面,在所有 OSD 节点上用 zap 选项删除该分区表。
|
||||
|
||||
```
|
||||
ceph-deploy disk zap ceph-osd1:/dev/sdb ceph-osd2:/dev/sdb ceph-osd3:/dev/sdb
|
||||
@ -428,13 +417,13 @@ ceph-deploy disk zap ceph-osd1:/dev/sdb ceph-osd2:/dev/sdb ceph-osd3:/dev/sdb
|
||||
|
||||
这个命令将删除所有 Ceph OSD 节点的 /dev/sdb 上的数据。
|
||||
|
||||
现在准备所有 OSD 节点并确保结果没有报错。
|
||||
现在准备所有 OSD 节点,请确保结果没有报错。
|
||||
|
||||
```
|
||||
ceph-deploy osd prepare ceph-osd1:/dev/sdb ceph-osd2:/dev/sdb ceph-osd3:/dev/sdb
|
||||
```
|
||||
|
||||
当你看到 ceph-osd1-3 结果已经准备好 OSD 使用,然后命令已经成功。
|
||||
当你看到 ceph-osd1-3 结果已经准备好供 OSD 使用,就表明命令已经成功。
|
||||
|
||||
[
|
||||
![Prepare the ceph-osd nodes](https://www.howtoforge.com/images/how-to-install-a-ceph-cluster-on-ubuntu-16-04/10.png)
|
||||
@ -486,17 +475,17 @@ sudo chmod 644 /etc/ceph/ceph.client.admin.keyring
|
||||
|
||||
Ceph 集群在 Ubuntu 16.04 已经创建完成。
|
||||
|
||||
### 第6步 - 测试 Ceph
|
||||
### 第 6 步 - 测试 Ceph
|
||||
|
||||
在第4步,我们已经安装并创建了一个新 Ceph 集群,然后添加了 OSDS 节点到集群。现在我们应该测试集群确保它如期工作。
|
||||
在第 4 步,我们已经安装并创建了一个新 Ceph 集群,然后添加了 OSD 节点到集群。现在我们应该测试集群确保它如期工作。
|
||||
|
||||
从 ceph-admin 节点,登录到 Ceph 监控服务器 '**mon1**'。
|
||||
从 ceph-admin 节点,登录到 Ceph 监控服务器 mon1。
|
||||
|
||||
```
|
||||
ssh mon1
|
||||
```
|
||||
|
||||
运行下面命令来检查集群健康。
|
||||
运行下面命令来检查集群是否健康。
|
||||
|
||||
```
|
||||
sudo ceph health
|
||||
@ -514,7 +503,7 @@ sudo ceph -s
|
||||
![Ceph Cluster Status](https://www.howtoforge.com/images/how-to-install-a-ceph-cluster-on-ubuntu-16-04/13.png)
|
||||
][20]
|
||||
|
||||
确保 Ceph 健康是 **OK** 并且有一个监控节点 '**mon1**' IP 地址为 '**10.0.15.11**'。有 **3 OSD** 服务器都是 **up** 状态并且正在运行,可用磁盘空间为 **45GB** - 3x15GB Ceph 数据 OSD 分区。
|
||||
确保 Ceph 健康状态是 `OK` 的,有一个监控节点 mon1 IP 地址为 '**10.0.15.11**'。有 **3 个 OSD** 服务器都是 **up** 状态并且正在运行,可用磁盘空间为 **45GB** - 3x15GB 的 Ceph 数据 OSD 分区。
|
||||
|
||||
我们在 Ubuntu 16.04 建立一个新 Ceph 集群成功。
|
||||
|
||||
@ -528,7 +517,7 @@ via: https://www.howtoforge.com/tutorial/how-to-install-a-ceph-cluster-on-ubuntu
|
||||
|
||||
作者:[Muhammad Arul][a]
|
||||
译者:[wyangsun](https://github.com/wyangsun)
|
||||
校对:[校对者ID](https://github.com/校对者ID)
|
||||
校对:[wxy](https://github.com/wxy)
|
||||
|
||||
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
|
||||
|
||||
|
Loading…
Reference in New Issue
Block a user