mirror of
https://github.com/LCTT/TranslateProject.git
synced 2024-12-26 21:30:55 +08:00
333 lines
9.8 KiB
Markdown
333 lines
9.8 KiB
Markdown
[#]: subject: "How to Setup High Availability Apache (HTTP) Cluster on RHEL 9/8"
|
||
[#]: via: "https://www.linuxtechi.com/high-availability-apache-cluster-on-rhel/"
|
||
[#]: author: "Pradeep Kumar https://www.linuxtechi.com/author/pradeep/"
|
||
[#]: collector: "lkxed"
|
||
[#]: translator: "geekpi"
|
||
[#]: reviewer: "wxy"
|
||
[#]: publisher: "wxy"
|
||
[#]: url: "https://linux.cn/article-15856-1.html"
|
||
|
||
如何在 RHEL 9/8 上设置高可用性 Apache(HTTP)集群
|
||
======
|
||
|
||
![][0]
|
||
|
||
> 在本文中,我们将介绍如何在 RHEL 9/8 上使用 Pacemaker 设置两节点高可用性 Apache 集群。
|
||
|
||
Pacemaker 是适用于类 Linux 操作系统的高可用性集群软件。Pacemaker 被称为“集群资源管理器”,它通过在集群节点之间进行资源故障转移来提供集群资源的最大可用性。Pacemaker 使用 Corosync 进行集群组件之间的心跳和内部通信,Corosync 还负责集群中的投票选举(Quorum)。
|
||
|
||
### 先决条件
|
||
|
||
在我们开始之前,请确保你拥有以下内容:
|
||
|
||
- 两台 RHEL 9/8 服务器
|
||
- Red Hat 订阅或本地配置的仓库
|
||
- 通过 SSH 访问两台服务器
|
||
- root 或 sudo 权限
|
||
- 互联网连接
|
||
|
||
### 实验室详情:
|
||
|
||
- 服务器 1:node1.example.com(192.168.1.6)
|
||
- 服务器 2:node2.exaple.com(192.168.1.7)
|
||
- VIP:192.168.1.81
|
||
- 共享磁盘:`/dev/sdb`(2GB)
|
||
|
||
事不宜迟,让我们深入了解这些步骤。
|
||
|
||
### 1、更新 /etc/hosts 文件
|
||
|
||
在两个节点上的 `/etc/hosts` 文件中添加以下条目:
|
||
|
||
```
|
||
192.168.1.6 node1.example.com
|
||
192.168.1.7 node2.example.com
|
||
```
|
||
|
||
### 2、安装高可用包 Pacemaker
|
||
|
||
Pacemaker 和其他必需的包在 RHEL 9/8 的默认包仓库中不可用。因此,我们必须启用高可用仓库。在两个节点上运行以下订阅管理器命令。
|
||
|
||
对于 RHEL 9 服务器:
|
||
|
||
```
|
||
$ sudo subscription-manager repos --enable=rhel-9-for-x86_64-highavailability-rpms
|
||
```
|
||
|
||
对于 RHEL 8 服务器:
|
||
|
||
```
|
||
$ sudo subscription-manager repos --enable=rhel-8-for-x86_64-highavailability-rpms
|
||
```
|
||
|
||
启用仓库后,运行命令在两个节点上安装 `pacemaker` 包:
|
||
|
||
```
|
||
$ sudo dnf install pcs pacemaker fence-agents-all -y
|
||
```
|
||
|
||
![][1]
|
||
|
||
### 3、在防火墙中允许高可用端口
|
||
|
||
要允许防火墙中的高可用端口,请在每个节点上运行以下命令:
|
||
|
||
```
|
||
$ sudo firewall-cmd --permanent --add-service=high-availability
|
||
$ sudo firewall-cmd --reload
|
||
```
|
||
|
||
### 4、为 hacluster 用户设置密码并启动 pcsd 服务
|
||
|
||
在两台服务器上为 `hacluster` 用户设置密码,运行以下 `echo` 命令:
|
||
|
||
```
|
||
$ echo "<Enter-Password>" | sudo passwd --stdin hacluster
|
||
```
|
||
|
||
执行以下命令在两台服务器上启动并启用集群服务:
|
||
|
||
```
|
||
$ sudo systemctl start pcsd.service
|
||
$ sudo systemctl enable pcsd.service
|
||
```
|
||
|
||
### 5、创建高可用集群
|
||
|
||
使用 `pcs` 命令对两个节点进行身份验证,从任何节点运行以下命令。在我的例子中,我在 `node1` 上运行它:
|
||
|
||
```
|
||
$ sudo pcs host auth node1.example.com node2.example.com
|
||
```
|
||
|
||
使用 `hacluster` 用户进行身份验证。
|
||
|
||
![][2]
|
||
|
||
使用下面的 `pcs cluster setup` 命令将两个节点添加到集群,这里我使用的集群名称为 `http_cluster`。仅在 `node1` 上运行命令:
|
||
|
||
```
|
||
$ sudo pcs cluster setup http_cluster --start node1.example.com node2.example.com
|
||
$ sudo pcs cluster enable --all
|
||
```
|
||
|
||
这两个命令的输出如下所示:
|
||
|
||
![][3]
|
||
|
||
从任何节点验证初始集群状态:
|
||
|
||
```
|
||
$ sudo pcs cluster status
|
||
```
|
||
|
||
![][4]
|
||
|
||
注意:在我们的实验室中,我们没有任何防护设备,因此我们将其禁用。但在生产环境中,强烈建议配置防护。
|
||
|
||
```
|
||
$ sudo pcs property set stonith-enabled=false
|
||
$ sudo pcs property set no-quorum-policy=ignore
|
||
```
|
||
|
||
### 6、为集群配置共享卷
|
||
|
||
在服务器上,挂载了一个大小为 2GB 的共享磁盘(`/dev/sdb`)。因此,我们将其配置为 LVM 卷并将其格式化为 XFS 文件系统。
|
||
|
||
在开始创建 LVM 卷之前,编辑两个节点上的 `/etc/lvm/lvm.conf` 文件。
|
||
|
||
将参数 `#system_id_source = "none"` 更改为 `system_id_source = "uname"`:
|
||
|
||
```
|
||
$ sudo sed -i 's/# system_id_source = "none"/ system_id_source = "uname"/g' /etc/lvm/lvm.conf
|
||
```
|
||
|
||
在 `node1` 上依次执行以下一组命令创建 LVM 卷:
|
||
|
||
```
|
||
$ sudo pvcreate /dev/sdb
|
||
$ sudo vgcreate --setautoactivation n vg01 /dev/sdb
|
||
$ sudo lvcreate -L1.99G -n lv01 vg01
|
||
$ sudo lvs /dev/vg01/lv01
|
||
$ sudo mkfs.xfs /dev/vg01/lv01
|
||
```
|
||
|
||
![][5]
|
||
|
||
将共享设备添加到集群第二个节点(`node2.example.com`)上的 LVM 设备文件中,仅在 `node2` 上运行以下命令:
|
||
|
||
```
|
||
[sysops@node2 ~]$ sudo lvmdevices --adddev /dev/sdb
|
||
```
|
||
|
||
### 7、安装和配置 Apache Web 服务器(httpd)
|
||
|
||
在两台服务器上安装 Apache web 服务器(httpd),运行以下 `dnf` 命令:
|
||
|
||
```
|
||
$ sudo dnf install -y httpd wget
|
||
```
|
||
|
||
并允许防火墙中的 Apache 端口,在两台服务器上运行以下 `firewall-cmd` 命令:
|
||
|
||
```
|
||
$ sudo firewall-cmd --permanent --zone=public --add-service=http
|
||
$ sudo firewall-cmd --permanent --zone=public --add-service=https
|
||
$ sudo firewall-cmd --reload
|
||
```
|
||
|
||
在两个节点上创建 `status.conf` 文件,以便 Apache 资源代理获取 Apache 的状态:
|
||
|
||
```
|
||
$ sudo bash -c 'cat <<-END > /etc/httpd/conf.d/status.conf
|
||
<Location /server-status>
|
||
SetHandler server-status
|
||
Require local
|
||
</Location>
|
||
END'
|
||
$
|
||
```
|
||
|
||
修改两个节点上的 `/etc/logrotate.d/httpd`:
|
||
|
||
替换下面的行
|
||
|
||
```
|
||
/bin/systemctl reload httpd.service > /dev/null 2>/dev/null || true
|
||
```
|
||
|
||
为
|
||
|
||
```
|
||
/usr/bin/test -f /run/httpd.pid >/dev/null 2>/dev/null &&
|
||
/usr/bin/ps -q $(/usr/bin/cat /run/httpd.pid) >/dev/null 2>/dev/null &&
|
||
/usr/sbin/httpd -f /etc/httpd/conf/httpd.conf \
|
||
-c "PidFile /run/httpd.pid" -k graceful > /dev/null 2>/dev/null || true
|
||
```
|
||
|
||
保存并退出文件。
|
||
|
||
![][6]
|
||
|
||
### 8、为 Apache 创建一个示例网页
|
||
|
||
仅在 `node1` 上执行以下命令:
|
||
|
||
```
|
||
$ sudo lvchange -ay vg01/lv01
|
||
$ sudo mount /dev/vg01/lv01 /var/www/
|
||
$ sudo mkdir /var/www/html
|
||
$ sudo mkdir /var/www/cgi-bin
|
||
$ sudo mkdir /var/www/error
|
||
$ sudo bash -c ' cat <<-END >/var/www/html/index.html
|
||
<html>
|
||
<body>High Availability Apache Cluster - Test Page </body>
|
||
</html>
|
||
END'
|
||
$
|
||
$ sudo umount /var/www
|
||
```
|
||
|
||
注意:如果启用了 SElinux,则在两台服务器上运行以下命令:
|
||
|
||
```
|
||
$ sudo restorecon -R /var/www
|
||
```
|
||
|
||
### 9、创建集群资源和资源组
|
||
|
||
为集群定义资源组和集群资源。在我的例子中,我们使用 `webgroup` 作为资源组。
|
||
|
||
- `web_lvm` 是共享 LVM 卷的资源名称(`/dev/vg01/lv01`)
|
||
- `web_fs` 是将挂载在 `/var/www` 上的文件系统资源的名称
|
||
- `VirtualIP` 是网卡 `enp0s3` 的 VIP(`IPadd2`)资源
|
||
- `Website` 是 Apache 配置文件的资源。
|
||
|
||
从任何节点执行以下命令集。
|
||
|
||
```
|
||
$ sudo pcs resource create web_lvm ocf:heartbeat:LVM-activate vgname=vg01 vg_access_mode=system_id --group webgroup
|
||
$ sudo pcs resource create web_fs Filesystem device="/dev/vg01/lv01" directory="/var/www" fstype="xfs" --group webgroup
|
||
$ sudo pcs resource create VirtualIP IPaddr2 ip=192.168.1.81 cidr_netmask=24 nic=enp0s3 --group webgroup
|
||
$ sudo pcs resource create Website apache configfile="/etc/httpd/conf/httpd.conf" statusurl="http://127.0.0.1/server-status" --group webgroup
|
||
```
|
||
|
||
![][7]
|
||
|
||
现在验证集群资源状态,运行:
|
||
|
||
```
|
||
$ sudo pcs status
|
||
```
|
||
|
||
![][8]
|
||
|
||
很好,上面的输出显示所有资源都在 `node1` 上启动。
|
||
|
||
### 10、测试 Apache 集群
|
||
|
||
尝试使用 VIP(192.168.1.81)访问网页。
|
||
|
||
使用 `curl` 命令或网络浏览器访问网页:
|
||
|
||
```
|
||
$ curl http://192.168.1.81
|
||
```
|
||
|
||
![][9]
|
||
|
||
或者
|
||
|
||
![][10]
|
||
|
||
完美!以上输出确认我们能够访问我们高可用 Apache 集群的网页。
|
||
|
||
让我们尝试将集群资源从 `node1` 移动到 `node2`,运行:
|
||
|
||
```
|
||
$ sudo pcs node standby node1.example.com
|
||
$ sudo pcs status
|
||
```
|
||
|
||
![][11]
|
||
|
||
完美,以上输出确认集群资源已从 `node1` 迁移到 `node2`。
|
||
|
||
要从备用节点(`node1.example.com`)中删除节点,运行以下命令:
|
||
|
||
```
|
||
$ sudo pcs node unstandby node1.example.com
|
||
```
|
||
|
||
![][12]
|
||
|
||
以上就是这篇文章的全部内容,我希望你发现它提供了丰富的信息,请在下面的评论部分中发表你的疑问和反馈。
|
||
|
||
*(题图:MJ/3bf8c775-72ed-4e44-a28d-c872c7c8632f)*
|
||
|
||
--------------------------------------------------------------------------------
|
||
|
||
via: https://www.linuxtechi.com/high-availability-apache-cluster-on-rhel/
|
||
|
||
作者:[Pradeep Kumar][a]
|
||
选题:[lkxed][b]
|
||
译者:[geekpi](https://github.com/geekpi)
|
||
校对:[wxy](https://github.com/wxy)
|
||
|
||
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
|
||
|
||
[a]: https://www.linuxtechi.com/author/pradeep/
|
||
[b]: https://github.com/lkxed/
|
||
[1]: https://www.linuxtechi.com/wp-content/uploads/2016/02/DNF-Command-Install-Pacemake-PCS-RHEL.png
|
||
[2]: https://www.linuxtechi.com/wp-content/uploads/2016/02/pcs-cluster-auth-command-rhel.png
|
||
[3]: https://www.linuxtechi.com/wp-content/uploads/2016/02/pcs-cluster-setup-rhel-servers.png
|
||
[4]: https://www.linuxtechi.com/wp-content/uploads/2016/02/pcs-cluster-initial-status-rhel.png
|
||
[5]: https://www.linuxtechi.com/wp-content/uploads/2016/02/Create-LVM-Volume-for-Apache-Cluster-RHEL.png
|
||
[6]: https://www.linuxtechi.com/wp-content/uploads/2016/02/Apache-cluster-logrotate-httpd-rhel.png
|
||
[7]: https://www.linuxtechi.com/wp-content/uploads/2016/02/pcs-resource-create-command-rhel.png
|
||
[8]: https://www.linuxtechi.com/wp-content/uploads/2016/02/Cluster-Resources-Status-RHEL.png
|
||
[9]: https://www.linuxtechi.com/wp-content/uploads/2016/02/Curl-Command-Access-Apache-VIP.png
|
||
[10]: https://www.linuxtechi.com/wp-content/uploads/2016/02/HA-Apache-Page-RHEL.png
|
||
[11]: https://www.linuxtechi.com/wp-content/uploads/2016/02/pcs-node-statndby-rhel.png
|
||
[12]: https://www.linuxtechi.com/wp-content/uploads/2016/02/pcs-node-unstandby-rhel.png
|
||
[0]: https://img.linux.net.cn/data/attachment/album/202305/29/172810i24a4jppa4744avv.jpg |