[#]: collector: (lujun9972) [#]: translator: (heguangzhi) [#]: reviewer: ( ) [#]: publisher: ( ) [#]: url: ( ) [#]: subject: (How to Setup Multi Node Elastic Stack Cluster on RHEL 8 / CentOS 8) [#]: via: (https://www.linuxtechi.com/setup-multinode-elastic-stack-cluster-rhel8-centos8/) [#]: author: (Pradeep Kumar https://www.linuxtechi.com/author/pradeep/) 如何在 RHEL 8 /CentOS 8 上建立多节点 Elastic stack 集群 ====== Elastic stack 俗称 **ELK stack**,是一组开源产品,如 **Elasticsearch**、**Logstash**和**Kibana**。Elastic Stack 由 Elastic 公司开发和维护。使用 Elastic stack,可以将系统日志发送到 Logstash,它是一个数据收集引擎,接受来自可能任何来源的日志或数据,并对日志进行格式化,然后将日志转发到 Elasticsearch ,用于 **分析**、**索引**、**搜索**和**存储**,最后使用 Kibana 表示为可视化数据,使用 Kibana,我们还可以基于用户的查询创建交互式图表。 [![Elastic-Stack-Cluster-RHEL8-CentOS8][1]][2] 在本文中,我们将演示如何在 RHEL 8 / CentOS 8 服务器上设置多节点 elastic stack 集群。以下是我的 Elastic Stack 集群的详细信息: ### Elasticsearch: * 三台服务器,最小化安装 RHEL 8 / CentOS 8 * IPs & 主机名 – 192.168.56.40 (elasticsearch1.linuxtechi. local), 192.168.56.50 (elasticsearch2.linuxtechi. local), 192.168.56.60 (elasticsearch3.linuxtechi. local) ### Logstash: * 两台服务器,最小化安装 RHEL 8 / CentOS 8 * IPs & 主机 – 192.168.56.20 (logstash1.linuxtechi. local) , 192.168.56.30 (logstash2.linuxtechi. local) ### Kibana: * 一台服务器,最小化安装 RHEL 8 / CentOS 8 * 主机名 – kibana.linuxtechi.local * IP – 192.168.56.10 ### Filebeat: * 一台服务器,最小化安装 CentOS 7 * IP &主机名 – 192.168.56.70 (web-server) 让我们从设置 Elasticsearch 集群开始, #### 设置3个节点 Elasticsearch 集群 正如我已经说过的,设置 Elasticsearch 集群的节点,登录到每个节点,设置主机名并配置 yum/dnf 库。 使用命令 hostnamectl 设置各个节点上的主机名, ``` [root@linuxtechi ~]# hostnamectl set-hostname "elasticsearch1.linuxtechi. local" [root@linuxtechi ~]# exec bash [root@linuxtechi ~]# [root@linuxtechi ~]# hostnamectl set-hostname "elasticsearch2.linuxtechi. local" [root@linuxtechi ~]# exec bash [root@linuxtechi ~]# [root@linuxtechi ~]# hostnamectl set-hostname "elasticsearch3.linuxtechi. local" [root@linuxtechi ~]# exec bash [root@linuxtechi ~]# ``` 对于 CentOS 8 系统,我们不需要配置任何操作系统包库,对于 RHEL 8服务器,如果您订阅了,然后用红帽订阅以获得包存储库就可以了。如果您想为操作系统包配置本地 yum/dnf 存储库,请参考以下网址: [How to Setup Local Yum/DNF Repository on RHEL 8 Server Using DVD or ISO File][3] 在所有节点上配置 Elasticsearch 包存储库,在 /etc/yum.repo.d/ 文件夹下创建一个包含以下内容的 elastic.repo 文件 ``` ~]# vi /etc/yum.repos.d/elastic.repo [elasticsearch-7.x] name=Elasticsearch repository for 7.x packages baseurl=https://artifacts.elastic.co/packages/7.x/yum gpgcheck=1 gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch enabled=1 autorefresh=1 type=rpm-md ``` 保存 & 退出文件 在所有三个节点上使用 rpm 命令导入 Elastic 公共签名密钥 ``` ~]# rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch ``` 在所有三个节点的 /etc/hosts 文件中添加以下行: ``` 192.168.56.40 elasticsearch1.linuxtechi.local 192.168.56.50 elasticsearch2.linuxtechi.local 192.168.56.60 elasticsearch3.linuxtechi.local ``` 使用 yum/dnf 命令在所有三个节点上安装 Java, ``` [root@linuxtechi ~]# dnf install java-openjdk -y [root@linuxtechi ~]# dnf install java-openjdk -y [root@linuxtechi ~]# dnf install java-openjdk -y ``` 使用 dnf 命令在所有三个节点上安装 Elasticsearch, ``` [root@linuxtechi ~]# dnf install elasticsearch -y [root@linuxtechi ~]# dnf install elasticsearch -y [root@linuxtechi ~]# dnf install elasticsearch -y ``` **注意:** 如果操作系统防火墙已启用并在每个 Elasticsearch 节点中运行,则使用 firewall-cmd 命令允许以下端口开放, ``` ~]# firewall-cmd --permanent --add-port=9300/tcp ~]# firewall-cmd --permanent --add-port=9200/tcp ~]# firewall-cmd --reload ``` 配置 Elasticsearch, 在所有节点上编辑文件 **/etc/elasticsearch/elasticsearch.yml** 并加入以下内容, ``` ~]# vim /etc/elasticsearch/elasticsearch.yml ………………………………………… cluster.name: opn-cluster node.name: elasticsearch1.linuxtechi.local network.host: 192.168.56.40 http.port: 9200 discovery.seed_hosts: ["elasticsearch1.linuxtechi.local", "elasticsearch2.linuxtechi.local", "elasticsearch3.linuxtechi.local"] cluster.initial_master_nodes: ["elasticsearch1.linuxtechi.local", "elasticsearch2.linuxtechi.local", "elasticsearch3.linuxtechi.local"] …………………………………………… ``` **注意:** 在每个节点上,在 node.name 中填写正确的主机名,在 network.host 中填写正确的 IP 地址,其他参数将保持不变。 现在使用 systemctl 命令在所有三个节点上启动并启用 Elasticsearch 服务, ``` ~]# systemctl daemon-reload ~]# systemctl enable elasticsearch.service ~]# systemctl start elasticsearch.service ``` 使用下面 'ss' 命令验证 elasticsearch 节点是否开始监听9200端口, ``` [root@linuxtechi ~]# ss -tunlp | grep 9200 tcp LISTEN 0 128 [::ffff:192.168.56.40]:9200 *:* users:(("java",pid=2734,fd=256)) [root@linuxtechi ~]# ``` 使用以下 curl 命令验证 Elasticsearch 群集状态 ``` [root@linuxtechi ~]# curl http://elasticsearch1.linuxtechi.local:9200 [root@linuxtechi ~]# curl -X GET http://elasticsearch2.linuxtechi.local:9200/_cluster/health?pretty ``` 命令的输出如下所示, ![Elasticsearch-cluster-status-rhel8][1] 以上输出表明我们已经成功创建了3节点的 Elasticsearch 集群,集群的状态也是绿色的。 **注意:** 如果您想修改 JVM 堆大小,那么您已经编辑了文件 “**/etc/elasticsearch/jvm.options**”,并根据您的环境更改以下参数, * -Xms1g * -Xmx1g 现在让我们转到 Logstash 节点, #### 安装和配置 Logstash 在两个 Logstash 节点上执行以下步骤, 登录到两个节点使用 hostnamectl 命令设置主机名, ``` [root@linuxtechi ~]# hostnamectl set-hostname "logstash1.linuxtechi.local" [root@linuxtechi ~]# exec bash [root@linuxtechi ~]# [root@linuxtechi ~]# hostnamectl set-hostname "logstash2.linuxtechi.local" [root@linuxtechi ~]# exec bash [root@linuxtechi ~]# ``` 在两个 logstash 节点的 /etc/hosts 文件中添加以下条目 ``` ~]# vi /etc/hosts 192.168.56.40 elasticsearch1.linuxtechi.local 192.168.56.50 elasticsearch2.linuxtechi.local 192.168.56.60 elasticsearch3.linuxtechi.local ``` 保存并退出文件 在两个节点上配置 Logstash 存储库,在文件夹/ete/yum.repo.d/下创建一个包含以下内容的文件 **logstash.repo**, ``` ~]# vi /etc/yum.repos.d/logstash.repo [elasticsearch-7.x] name=Elasticsearch repository for 7.x packages baseurl=https://artifacts.elastic.co/packages/7.x/yum gpgcheck=1 gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch enabled=1 autorefresh=1 type=rpm-md ``` 保存并退出文件,运行 rpm 命令导入签名密钥 ``` ~]# rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch ``` 使用 dnf 命令在两个节点上安装 Java OpenJDK, ``` ~]# dnf install java-openjdk -y ``` 从两个节点运行 dnf 命令来安装 logstash, ``` [root@linuxtechi ~]# dnf install logstash -y [root@linuxtechi ~]# dnf install logstash -y ``` 现在配置logstash,在两个 logstash 节点上执行以下步骤, 创建一个 logstash conf 文件,首先我们在 “/etc/logstash/conf.d/” 下复制 logstash 示例文件 ``` # cd /etc/logstash/ # cp logstash-sample.conf conf.d/logstash.conf ``` 编辑 conf 文件并更新以下内容, ``` # vi conf.d/logstash.conf input { beats { port => 5044 } } output { elasticsearch { hosts => ["http://elasticsearch1.linuxtechi.local:9200", "http://elasticsearch2.linuxtechi.local:9200", "http://elasticsearch3.linuxtechi.local:9200"] index => "%{[@metadata][beat]}-%{[@metadata][version]}-%{+YYYY.MM.dd}" #user => "elastic" #password => "changeme" } } ``` 输出部分,在主机参数中指定所有三个 Elasticsearch 节点的 FQDN,其他参数保持不变。 使用 firewall-cmd 命令在操作系统防火墙中允许 logstash 端口 “5044”, ``` ~ # firewall-cmd --permanent --add-port=5044/tcp ~ # firewall-cmd –reload ``` 现在,在每个节点上运行以下 systemctl 命令,启动并启用 Logstash 服务 ``` ~]# systemctl start logstash ~]# systemctl eanble logstash ``` 使用 ss 命令验证 logstash 服务是否开始监听 5044 端口, ``` [root@linuxtechi ~]# ss -tunlp | grep 5044 tcp LISTEN 0 128 *:5044 *:* users:(("java",pid=2416,fd=96)) [root@linuxtechi ~]# ``` 以上输出表明 logstash 已成功安装和配置。让我们转到 Kibana 安装。 #### 安装和配置 Kibana 登录 Kibana 节点,使用 **hostnamectl** 命令设置主机名, ``` [root@linuxtechi ~]# hostnamectl set-hostname "kibana.linuxtechi.local" [root@linuxtechi ~]# exec bash [root@linuxtechi ~]# ``` 编辑 /etc/hosts 文件并添加以下行 ``` 192.168.56.40 elasticsearch1.linuxtechi.local 192.168.56.50 elasticsearch2.linuxtechi.local 192.168.56.60 elasticsearch3.linuxtechi.local ``` 使用以下命令设置 Kibana 存储库, ``` [root@linuxtechi ~]# vi /etc/yum.repos.d/kibana.repo [elasticsearch-7.x] name=Elasticsearch repository for 7.x packages baseurl=https://artifacts.elastic.co/packages/7.x/yum gpgcheck=1 gpgkey=https://artifacts.elastic.co/GPG-KEY-elasticsearch enabled=1 autorefresh=1 type=rpm-md [root@linuxtechi ~]# rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch ``` 执行 dnf 命令安装kibana, ``` [root@linuxtechi ~]# yum install kibana -y ``` 通过编辑 “**/etc/kibana/kibana.yml**” 文件,配置 Kibana ``` [root@linuxtechi ~]# vim /etc/kibana/kibana.yml ………… server.host: "kibana.linuxtechi.local" server.name: "kibana.linuxtechi.local" elasticsearch.hosts: ["http://elasticsearch1.linuxtechi.local:9200", "http://elasticsearch2.linuxtechi.local:9200", "http://elasticsearch3.linuxtechi.local:9200"] ………… ``` 启动并且启用 kibana 服务 ``` [root@linuxtechi ~]# systemctl start kibana [root@linuxtechi ~]# systemctl enable kibana ``` 在系统防火墙上允许 Kibana 端口 ‘5601‘ ``` [root@linuxtechi ~]# firewall-cmd --permanent --add-port=5601/tcp success [root@linuxtechi ~]# firewall-cmd --reload success [root@linuxtechi ~]# ``` 使用以下 URL 访问 Kibana 界面 [![Kibana-Dashboard-rhel8][1]][4] 从 面板上,我们可以检查 Elastic Stack 集群的状态 [![Stack-Monitoring-Overview-RHEL8][1]][5] 这证明我们已经在 RHEL 8 /CentOS 8 上成功地安装并设置了多节点 Elastic Stack 集群。 现在让我们通过 filebeat 从其他 Linux 服务器发送一些日志到 logstash 节点中,在我的例子中,我有一个 CentOS 7服务器,我将通过 filebeat 将该服务器的所有重要日志推送到 logstash 。 登录到 CentOS 7 服务器使用 rpm 命令安装 filebeat 包, ``` [root@linuxtechi ~]# rpm -ivh https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.3.1-x86_64.rpm Retrieving https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.3.1-x86_64.rpm Preparing... ################################# [100%] Updating / installing... 1:filebeat-7.3.1-1 ################################# [100%] [root@linuxtechi ~]# ``` 编辑 /etc/hosts 文件并添加以下内容, ``` 192.168.56.20 logstash1.linuxtechi.local 192.168.56.30 logstash2.linuxtechi.local ``` 现在配置 filebeat,以便它可以使用负载平衡技术向 logstash 节点发送日志,编辑文件 **/etc/filebeat/filebeat.yml**,并添加以下参数, 在 “**filebeat.inputs:**”部分将“**enabled: false**”更改为“**enabled: true**”,并在“**paths**”参数下指定我们可以发送到 logstash 的日志文件的位置,在 Elasticsearch 输出部分注释掉“**output.elasticsearch**”和**host**参数。在 Logstash 输出部分,删除“**output.logstash:**” 和 “**hosts:**” 的注释,并在 hosts 参数和 “**loadbalance: true**” 中添加 logstash 节点。 ``` [root@linuxtechi ~]# vi /etc/filebeat/filebeat.yml ………………………. filebeat.inputs: - type: log enabled: true paths: - /var/log/messages - /var/log/dmesg - /var/log/maillog - /var/log/boot.log #output.elasticsearch: # hosts: ["localhost:9200"] output.logstash: hosts: ["logstash1.linuxtechi.local:5044", "logstash2.linuxtechi.local:5044"] loadbalance: true ……………………………………… ``` 使用下面的2个 systemctl 命令 启动并启用 filebeat 服务 ``` [root@linuxtechi ~]# systemctl start filebeat [root@linuxtechi ~]# systemctl enable filebeat ``` 现在转到 Kibana 用户界面,验证新索引是否可见, 从左侧栏中选择管理选项,然后单击 Elasticsearch 下的索引管理, [![Elasticsearch-index-management-Kibana][1]][6] 正如我们上面看到的,索引现在是可见的,让我们创建索引模型, 点击 Kibana 部分的 “索引模型”,它将提示我们创建一个新模型,点击 **Create Index Pattern** ,并将模式名称指定为 **filebeat** [![Define-Index-Pattern-Kibana-RHEL8][1]][7] 点击下一步 选择 **Timestamp** 作为索引模型的时间过滤器,然后单击 “Create index pattern” [![Time-Filter-Index-Pattern-Kibana-RHEL8][1]][8] [![filebeat-index-pattern-overview-Kibana][1]][9] 现在单击查看实时 filebeat 索引模型, [![Discover-Kibana-REHL8][1]][10] 这表明 Filebeat 代理已配置成功,我们能够在 Kibana 仪表盘上看到实时日志。 以上就是本文的全部内容,对这些帮助您在 RHEL 8 / CentOS 8 系统上设置 Elastic Stack集群的步骤,请不要犹豫分享您的反馈和意见, -------------------------------------------------------------------------------- via: https://www.linuxtechi.com/setup-multinode-elastic-stack-cluster-rhel8-centos8/ 作者:[Pradeep Kumar][a] 选题:[lujun9972][b] 译者:[heguangzhi](https://github.com/heguangzhi) 校对:[校对者ID](https://github.com/校对者ID) 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出 [a]: https://www.linuxtechi.com/author/pradeep/ [b]: https://github.com/lujun9972 [1]: data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7 [2]: https://www.linuxtechi.com/wp-content/uploads/2019/09/Elastic-Stack-Cluster-RHEL8-CentOS8.jpg [3]: https://www.linuxtechi.com/setup-local-yum-dnf-repository-rhel-8/ [4]: https://www.linuxtechi.com/wp-content/uploads/2019/09/Kibana-Dashboard-rhel8.jpg [5]: https://www.linuxtechi.com/wp-content/uploads/2019/09/Stack-Monitoring-Overview-RHEL8.jpg [6]: https://www.linuxtechi.com/wp-content/uploads/2019/09/Elasticsearch-index-management-Kibana.jpg [7]: https://www.linuxtechi.com/wp-content/uploads/2019/09/Define-Index-Pattern-Kibana-RHEL8.jpg [8]: https://www.linuxtechi.com/wp-content/uploads/2019/09/Time-Filter-Index-Pattern-Kibana-RHEL8.jpg [9]: https://www.linuxtechi.com/wp-content/uploads/2019/09/filebeat-index-pattern-overview-Kibana.jpg [10]: https://www.linuxtechi.com/wp-content/uploads/2019/09/Discover-Kibana-REHL8.jpg