@heguangzhi
This commit is contained in:
Xingyu Wang 2019-09-26 21:27:44 +08:00
parent 9968944e93
commit 3f7d5dd402

View File

@ -1,59 +1,49 @@
[#]: collector: (lujun9972) [#]: collector: (lujun9972)
[#]: translator: (heguangzhi) [#]: translator: (heguangzhi)
[#]: reviewer: ( ) [#]: reviewer: (wxy)
[#]: publisher: ( ) [#]: publisher: ( )
[#]: url: ( ) [#]: url: ( )
[#]: subject: (How to Setup Multi Node Elastic Stack Cluster on RHEL 8 / CentOS 8) [#]: subject: (How to Setup Multi Node Elastic Stack Cluster on RHEL 8 / CentOS 8)
[#]: via: (https://www.linuxtechi.com/setup-multinode-elastic-stack-cluster-rhel8-centos8/) [#]: via: (https://www.linuxtechi.com/setup-multinode-elastic-stack-cluster-rhel8-centos8/)
[#]: author: (Pradeep Kumar https://www.linuxtechi.com/author/pradeep/) [#]: author: (Pradeep Kumar https://www.linuxtechi.com/author/pradeep/)
如何在 RHEL 8 /CentOS 8 上建立多节点 Elastic stack 集群 如何在 RHEL8 /CentOS8 上建立多节点 Elastic stack 集群
====== ======
Elastic stack 俗称 **ELK stack**,是一组开源产品,如 **Elasticsearch**、**Logstash**和**Kibana**。Elastic Stack 由 Elastic 公司开发和维护。使用 Elastic stack可以将系统日志发送到 Logstash它是一个数据收集引擎接受来自可能任何来源的日志或数据并对日志进行格式化然后将日志转发到 Elasticsearch ,用于 **分析**、**索引**、**搜索**和**存储**,最后使用 Kibana 表示为可视化数据,使用 Kibana我们还可以基于用户的查询创建交互式图表。 Elastic stack 俗称 ELK stack是一组包括 Elasticsearch、Logstash 和 Kibana 在内的开源产品。Elastic Stack 由 Elastic 公司开发和维护。使用 Elastic stack可以将系统日志发送到 Logstash它是一个数据收集引擎接受来自可能任何来源的日志或数据并对日志进行归一化然后将日志转发到 Elasticsearch用于分析、索引、搜索和存储最后使用 Kibana 表示为可视化数据,使用 Kibana我们还可以基于用户的查询创建交互式图表。
[![Elastic-Stack-Cluster-RHEL8-CentOS8][1]][2]
![Elastic-Stack-Cluster-RHEL8-CentOS8][2]
在本文中,我们将演示如何在 RHEL 8 / CentOS 8 服务器上设置多节点 elastic stack 集群。以下是我的 Elastic Stack 集群的详细信息: 在本文中,我们将演示如何在 RHEL 8 / CentOS 8 服务器上设置多节点 elastic stack 集群。以下是我的 Elastic Stack 集群的详细信息:
### Elasticsearch: **Elasticsearch**
* 三台服务器,最小化安装 RHEL 8 / CentOS 8 * 三台服务器,最小化安装 RHEL 8 / CentOS 8
* IPs & 主机名 192.168.56.40 (elasticsearch1.linuxtechi. local), 192.168.56.50 (elasticsearch2.linuxtechi. local), 192.168.56.60 (elasticsearch3.linuxtechi. local) * IP & 主机名 192.168.56.40`elasticsearch1.linuxtechi.local`、192.168.56.50 `elasticsearch2.linuxtechi.local`、192.168.56.60elasticsearch3.linuxtechi.local`
Logstash**
### Logstash: * 两台服务器,最小化安装 RHEL 8 / CentOS 8
* IP & 主机 192.168.56.20`logstash1.linuxtechi.local`、192.168.56.30`logstash2.linuxtechi.local`
* 两台服务器,最小化安装 RHEL 8 / CentOS 8 **Kibana**
* IPs & 主机 192.168.56.20 (logstash1.linuxtechi. local) , 192.168.56.30 (logstash2.linuxtechi. local)
* 一台服务器,最小化安装 RHEL 8 / CentOS 8
* IP & 主机名 192.168.56.10`kibana.linuxtechi.local`
**Filebeat**
### Kibana: * 一台服务器,最小化安装 CentOS 7
* IP & 主机名 192.168.56.70`web-server`
* 一台服务器,最小化安装 RHEL 8 / CentOS 8
* 主机名 kibana.linuxtechi.local
* IP 192.168.56.10
### Filebeat:
* 一台服务器,最小化安装 CentOS 7
* IP &主机名 192.168.56.70 (web-server)
让我们从设置 Elasticsearch 集群开始, 让我们从设置 Elasticsearch 集群开始,
#### 设置3个节点 Elasticsearch 集群 ### 设置3个节点 Elasticsearch 集群
正如我已经说过的,设置 Elasticsearch 集群的节点,登录到每个节点,设置主机名并配置 yum/dnf 库。 正如我已经说过的,设置 Elasticsearch 集群的节点,登录到每个节点,设置主机名并配置 yum/dnf 库。
使用命令 hostnamectl 设置各个节点上的主机名, 使用命令 `hostnamectl` 设置各个节点上的主机名:
``` ```
[root@linuxtechi ~]# hostnamectl set-hostname "elasticsearch1.linuxtechi. local" [root@linuxtechi ~]# hostnamectl set-hostname "elasticsearch1.linuxtechi. local"
@ -67,14 +57,15 @@ Elastic stack 俗称 **ELK stack**,是一组开源产品,如 **Elasticsearch
[root@linuxtechi ~]# [root@linuxtechi ~]#
``` ```
对于 CentOS 8 系统,我们不需要配置任何操作系统包库,对于 RHEL 8服务器,如果您订阅了,然后用红帽订阅以获得包存储库就可以了。如果您想为操作系统包配置本地 yum/dnf 存储库,请参考以下网址: 对于 CentOS 8 系统,我们不需要配置任何操作系统包库,对于 RHEL 8 服务器,如果你有有效订阅,那么用红帽订阅以获得包存储库就可以了。如果你想为操作系统包配置本地 yum/dnf 存储库,请参考以下网址:
[How to Setup Local Yum/DNF Repository on RHEL 8 Server Using DVD or ISO File][3] - [如何使用 DVD 或 ISO 文件在 RHEL 8 服务器上设置本地 Yum / DNF 存储库][3]
在所有节点上配置 Elasticsearch 包存储库,在 /etc/yum.repo.d/ 文件夹下创建一个包含以下内容的 elastic.repo 文件 在所有节点上配置 Elasticsearch 包存储库,在 `/etc/yum.repo.d/` 文件夹下创建一个包含以下内容的 `elastic.repo` 文件
``` ```
~]# vi /etc/yum.repos.d/elastic.repo ~]# vi /etc/yum.repos.d/elastic.repo
[elasticsearch-7.x] [elasticsearch-7.x]
name=Elasticsearch repository for 7.x packages name=Elasticsearch repository for 7.x packages
baseurl=https://artifacts.elastic.co/packages/7.x/yum baseurl=https://artifacts.elastic.co/packages/7.x/yum
@ -85,15 +76,15 @@ autorefresh=1
type=rpm-md type=rpm-md
``` ```
保存 & 退出文件 保存文件并退出。
在所有三个节点上使用 rpm 命令导入 Elastic 公共签名密钥 在所有三个节点上使用 `rpm` 命令导入 Elastic 公共签名密钥。
``` ```
~]# rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch ~]# rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch
``` ```
在所有三个节点的 /etc/hosts 文件中添加以下行: 在所有三个节点的 `/etc/hosts` 文件中添加以下行:
``` ```
192.168.56.40 elasticsearch1.linuxtechi.local 192.168.56.40 elasticsearch1.linuxtechi.local
@ -101,7 +92,7 @@ type=rpm-md
192.168.56.60 elasticsearch3.linuxtechi.local 192.168.56.60 elasticsearch3.linuxtechi.local
``` ```
使用 yum/dnf 命令在所有三个节点上安装 Java 使用 `yum`/`dnf` 命令在所有三个节点上安装 Java
``` ```
[root@linuxtechi ~]# dnf install java-openjdk -y [root@linuxtechi ~]# dnf install java-openjdk -y
@ -109,7 +100,7 @@ type=rpm-md
[root@linuxtechi ~]# dnf install java-openjdk -y [root@linuxtechi ~]# dnf install java-openjdk -y
``` ```
使用 dnf 命令在所有三个节点上安装 Elasticsearch 使用 `yum`/`dnf` 命令在所有三个节点上安装 Elasticsearch
``` ```
[root@linuxtechi ~]# dnf install elasticsearch -y [root@linuxtechi ~]# dnf install elasticsearch -y
@ -117,7 +108,7 @@ type=rpm-md
[root@linuxtechi ~]# dnf install elasticsearch -y [root@linuxtechi ~]# dnf install elasticsearch -y
``` ```
**注意:** 如果操作系统防火墙已启用并在每个 Elasticsearch 节点中运行,则使用 firewall-cmd 命令允许以下端口开放, **注意** 如果操作系统防火墙已启用并在每个 Elasticsearch 节点中运行,则使用 `firewall-cmd` 命令允许以下端口开放:
``` ```
~]# firewall-cmd --permanent --add-port=9300/tcp ~]# firewall-cmd --permanent --add-port=9300/tcp
@ -125,23 +116,22 @@ type=rpm-md
~]# firewall-cmd --reload ~]# firewall-cmd --reload
``` ```
配置 Elasticsearch, 在所有节点上编辑文件 **/etc/elasticsearch/elasticsearch.yml** 并加入以下内容, 配置 Elasticsearch, 在所有节点上编辑文件 `/etc/elasticsearch/elasticsearch.yml` 并加入以下内容:
``` ```
~]# vim /etc/elasticsearch/elasticsearch.yml ~]# vim /etc/elasticsearch/elasticsearch.yml
…………………………………………
cluster.name: opn-cluster cluster.name: opn-cluster
node.name: elasticsearch1.linuxtechi.local node.name: elasticsearch1.linuxtechi.local
network.host: 192.168.56.40 network.host: 192.168.56.40
http.port: 9200 http.port: 9200
discovery.seed_hosts: ["elasticsearch1.linuxtechi.local", "elasticsearch2.linuxtechi.local", "elasticsearch3.linuxtechi.local"] discovery.seed_hosts: ["elasticsearch1.linuxtechi.local", "elasticsearch2.linuxtechi.local", "elasticsearch3.linuxtechi.local"]
cluster.initial_master_nodes: ["elasticsearch1.linuxtechi.local", "elasticsearch2.linuxtechi.local", "elasticsearch3.linuxtechi.local"] cluster.initial_master_nodes: ["elasticsearch1.linuxtechi.local", "elasticsearch2.linuxtechi.local", "elasticsearch3.linuxtechi.local"]
……………………………………………
``` ```
**注意:** 在每个节点上,在 node.name 中填写正确的主机名,在 network.host 中填写正确的 IP 地址,其他参数将保持不变。 **注意** 在每个节点上,在 `node.name` 中填写正确的主机名,在 `network.host` 中填写正确的 IP 地址,其他参数保持不变。
现在使用 systemctl 命令在所有三个节点上启动并启用 Elasticsearch 服务 现在使用 `systemctl` 命令在所有三个节点上启动并启用 Elasticsearch 服务
``` ```
~]# systemctl daemon-reload ~]# systemctl daemon-reload
@ -149,7 +139,7 @@ cluster.initial_master_nodes: ["elasticsearch1.linuxtechi.local", "elasticsearch
~]# systemctl start elasticsearch.service ~]# systemctl start elasticsearch.service
``` ```
使用下面 'ss' 命令验证 elasticsearch 节点是否开始监听9200端口 使用下面 `ss` 命令验证 elasticsearch 节点是否开始监听 9200 端口:
``` ```
[root@linuxtechi ~]# ss -tunlp | grep 9200 [root@linuxtechi ~]# ss -tunlp | grep 9200
@ -157,33 +147,31 @@ tcp LISTEN 0 128 [::ffff:192.168.56.40]:9200 *:*
[root@linuxtechi ~]# [root@linuxtechi ~]#
``` ```
使用以下 curl 命令验证 Elasticsearch 群集状态 使用以下 `curl` 命令验证 Elasticsearch 群集状态
``` ```
[root@linuxtechi ~]# curl http://elasticsearch1.linuxtechi.local:9200 [root@linuxtechi ~]# curl http://elasticsearch1.linuxtechi.local:9200
[root@linuxtechi ~]# curl -X GET http://elasticsearch2.linuxtechi.local:9200/_cluster/health?pretty [root@linuxtechi ~]# curl -X GET http://elasticsearch2.linuxtechi.local:9200/_cluster/health?pretty
``` ```
命令的输出如下所示 命令的输出如下所示
![Elasticsearch-cluster-status-rhel8][1] ![Elasticsearch-cluster-status-rhel8][3]
以上输出表明我们已经成功创建了3节点的 Elasticsearch 集群,集群的状态也是绿色的。 以上输出表明我们已经成功创建了 3 节点的 Elasticsearch 集群,集群的状态也是绿色的。
**注意:** 如果您想修改 JVM 堆大小,那么您已经编辑了文件 “**/etc/elasticsearch/jvm.options**”,并根据您的环境更改以下参数, **注意** 如果你想修改 JVM 堆大小,那么你可以编辑了文件 `/etc/elasticsearch/jvm.options`,并根据你的环境更改以下参数:
* -Xms1g * `-Xms1g`
* -Xmx1g * `-Xmx1g`
现在让我们转到 Logstash 节点。
### 安装和配置 Logstash
现在让我们转到 Logstash 节点, 在两个 Logstash 节点上执行以下步骤。
#### 安装和配置 Logstash 登录到两个节点使用 `hostnamectl` 命令设置主机名:
在两个 Logstash 节点上执行以下步骤,
登录到两个节点使用 hostnamectl 命令设置主机名,
``` ```
[root@linuxtechi ~]# hostnamectl set-hostname "logstash1.linuxtechi.local" [root@linuxtechi ~]# hostnamectl set-hostname "logstash1.linuxtechi.local"
@ -194,7 +182,7 @@ tcp LISTEN 0 128 [::ffff:192.168.56.40]:9200 *:*
[root@linuxtechi ~]# [root@linuxtechi ~]#
``` ```
在两个 logstash 节点的 /etc/hosts 文件中添加以下条目 在两个 logstash 节点的 `/etc/hosts` 文件中添加以下条目
``` ```
~]# vi /etc/hosts ~]# vi /etc/hosts
@ -203,13 +191,13 @@ tcp LISTEN 0 128 [::ffff:192.168.56.40]:9200 *:*
192.168.56.60 elasticsearch3.linuxtechi.local 192.168.56.60 elasticsearch3.linuxtechi.local
``` ```
保存并退出文件 保存文件并退出。
在两个节点上配置 Logstash 存储库,在文件夹 `/ete/yum.repo.d/` 下创建一个包含以下内容的文件 `logstash.repo`
在两个节点上配置 Logstash 存储库,在文件夹/ete/yum.repo.d/下创建一个包含以下内容的文件 **logstash.repo**,
``` ```
~]# vi /etc/yum.repos.d/logstash.repo ~]# vi /etc/yum.repos.d/logstash.repo
[elasticsearch-7.x] [elasticsearch-7.x]
name=Elasticsearch repository for 7.x packages name=Elasticsearch repository for 7.x packages
baseurl=https://artifacts.elastic.co/packages/7.x/yum baseurl=https://artifacts.elastic.co/packages/7.x/yum
@ -220,35 +208,33 @@ autorefresh=1
type=rpm-md type=rpm-md
``` ```
保存并退出文件,运行 rpm 命令导入签名密钥 保存并退出文件,运行 `rpm` 命令导入签名密钥
``` ```
~]# rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch ~]# rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch
``` ```
使用 dnf 命令在两个节点上安装 Java OpenJDK 使用 `yum`/`dnf` 命令在两个节点上安装 Java OpenJDK
``` ```
~]# dnf install java-openjdk -y ~]# dnf install java-openjdk -y
``` ```
从两个节点运行 dnf 命令来安装 logstash 从两个节点运行 `yum`/`dnf` 命令来安装 logstash
``` ```
[root@linuxtechi ~]# dnf install logstash -y [root@linuxtechi ~]# dnf install logstash -y
[root@linuxtechi ~]# dnf install logstash -y [root@linuxtechi ~]# dnf install logstash -y
``` ```
现在配置logstash在两个 logstash 节点上执行以下步骤, 现在配置 logstash在两个 logstash 节点上执行以下步骤,创建一个 logstash 配置文件,首先我们在 `/etc/logstash/conf.d/` 下复制 logstash 示例文件:
创建一个 logstash conf 文件,首先我们在 “/etc/logstash/conf.d/” 下复制 logstash 示例文件
``` ```
# cd /etc/logstash/ # cd /etc/logstash/
# cp logstash-sample.conf conf.d/logstash.conf # cp logstash-sample.conf conf.d/logstash.conf
``` ```
编辑 conf 文件并更新以下内容, 编辑配置文件并更新以下内容:
``` ```
# vi conf.d/logstash.conf # vi conf.d/logstash.conf
@ -269,22 +255,23 @@ output {
} }
``` ```
输出部分,在主机参数中指定所有三个 Elasticsearch 节点的 FQDN其他参数保持不变。 `output` 部分之下,在 `hosts` 参数中指定所有三个 Elasticsearch 节点的 FQDN其他参数保持不变。
使用 firewall-cmd 命令在操作系统防火墙中允许 logstash 端口 “5044” 使用 `firewall-cmd` 命令在操作系统防火墙中允许 logstash 端口 “5044”
``` ```
~ # firewall-cmd --permanent --add-port=5044/tcp ~ # firewall-cmd --permanent --add-port=5044/tcp
~ # firewall-cmd reload ~ # firewall-cmd reload
``` ```
现在,在每个节点上运行以下 systemctl 命令,启动并启用 Logstash 服务 现在,在每个节点上运行以下 `systemctl` 命令,启动并启用 Logstash 服务
``` ```
~]# systemctl start logstash ~]# systemctl start logstash
~]# systemctl eanble logstash ~]# systemctl eanble logstash
``` ```
使用 ss 命令验证 logstash 服务是否开始监听 5044 端口,
使用 `ss` 命令验证 logstash 服务是否开始监听 5044 端口:
``` ```
[root@linuxtechi ~]# ss -tunlp | grep 5044 [root@linuxtechi ~]# ss -tunlp | grep 5044
@ -294,9 +281,9 @@ tcp LISTEN 0 128 *:5044 *:*
以上输出表明 logstash 已成功安装和配置。让我们转到 Kibana 安装。 以上输出表明 logstash 已成功安装和配置。让我们转到 Kibana 安装。
#### 安装和配置 Kibana ### 安装和配置 Kibana
登录 Kibana 节点,使用 **hostnamectl** 命令设置主机名, 登录 Kibana 节点,使用 `hostnamectl` 命令设置主机名:
``` ```
[root@linuxtechi ~]# hostnamectl set-hostname "kibana.linuxtechi.local" [root@linuxtechi ~]# hostnamectl set-hostname "kibana.linuxtechi.local"
@ -304,8 +291,7 @@ tcp LISTEN 0 128 *:5044 *:*
[root@linuxtechi ~]# [root@linuxtechi ~]#
``` ```
编辑 /etc/hosts 文件并添加以下行 编辑 `/etc/hosts` 文件并添加以下行:
``` ```
192.168.56.40 elasticsearch1.linuxtechi.local 192.168.56.40 elasticsearch1.linuxtechi.local
@ -313,7 +299,7 @@ tcp LISTEN 0 128 *:5044 *:*
192.168.56.60 elasticsearch3.linuxtechi.local 192.168.56.60 elasticsearch3.linuxtechi.local
``` ```
使用以下命令设置 Kibana 存储库 使用以下命令设置 Kibana 存储库
``` ```
[root@linuxtechi ~]# vi /etc/yum.repos.d/kibana.repo [root@linuxtechi ~]# vi /etc/yum.repos.d/kibana.repo
@ -329,13 +315,13 @@ type=rpm-md
[root@linuxtechi ~]# rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch [root@linuxtechi ~]# rpm --import https://artifacts.elastic.co/GPG-KEY-elasticsearch
``` ```
执行 dnf 命令安装kibana 执行 `yum`/`dnf` 命令安装 kibana
``` ```
[root@linuxtechi ~]# yum install kibana -y [root@linuxtechi ~]# yum install kibana -y
``` ```
通过编辑 “**/etc/kibana/kibana.yml**” 文件,配置 Kibana 通过编辑 `/etc/kibana/kibana.yml` 文件,配置 Kibana
``` ```
[root@linuxtechi ~]# vim /etc/kibana/kibana.yml [root@linuxtechi ~]# vim /etc/kibana/kibana.yml
@ -346,15 +332,14 @@ elasticsearch.hosts: ["http://elasticsearch1.linuxtechi.local:9200", "http://ela
………… …………
``` ```
启动并且启用 kibana 服务 启用并启动 kibana 服务:
``` ```
[root@linuxtechi ~]# systemctl start kibana [root@linuxtechi ~]# systemctl start kibana
[root@linuxtechi ~]# systemctl enable kibana [root@linuxtechi ~]# systemctl enable kibana
``` ```
在系统防火墙上允许 Kibana 端口 5601 在系统防火墙上允许 Kibana 端口 “5601”
``` ```
[root@linuxtechi ~]# firewall-cmd --permanent --add-port=5601/tcp [root@linuxtechi ~]# firewall-cmd --permanent --add-port=5601/tcp
@ -363,25 +348,20 @@ success
success success
[root@linuxtechi ~]# [root@linuxtechi ~]#
``` ```
使用以下 URL 访问 Kibana 界面
<http://kibana.linuxtechi.local:5601> 使用以下 URL 访问 Kibana 界面:<http://kibana.linuxtechi.local:5601>
[![Kibana-Dashboard-rhel8][1]][4] ![Kibana-Dashboard-rhel8][4]
从 面板上,我们可以检查 Elastic Stack 集群的状态 从面板上,我们可以检查 Elastic Stack 集群的状态。
[![Stack-Monitoring-Overview-RHEL8][1]][5]
![Stack-Monitoring-Overview-RHEL8][5]
这证明我们已经在 RHEL 8 /CentOS 8 上成功地安装并设置了多节点 Elastic Stack 集群。 这证明我们已经在 RHEL 8 /CentOS 8 上成功地安装并设置了多节点 Elastic Stack 集群。
现在让我们通过 `filebeat` 从其他 Linux 服务器发送一些日志到 logstash 节点中,在我的例子中,我有一个 CentOS 7服务器我将通过 `filebeat` 将该服务器的所有重要日志推送到 logstash。
登录到 CentOS 7 服务器使用 yum/rpm 命令安装 filebeat 包:
现在让我们通过 filebeat 从其他 Linux 服务器发送一些日志到 logstash 节点中,在我的例子中,我有一个 CentOS 7服务器我将通过 filebeat 将该服务器的所有重要日志推送到 logstash 。
登录到 CentOS 7 服务器使用 rpm 命令安装 filebeat 包,
``` ```
[root@linuxtechi ~]# rpm -ivh https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.3.1-x86_64.rpm [root@linuxtechi ~]# rpm -ivh https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.3.1-x86_64.rpm
@ -392,22 +372,20 @@ Updating / installing...
[root@linuxtechi ~]# [root@linuxtechi ~]#
``` ```
编辑 /etc/hosts 文件并添加以下内容, 编辑 `/etc/hosts` 文件并添加以下内容:
``` ```
192.168.56.20 logstash1.linuxtechi.local 192.168.56.20 logstash1.linuxtechi.local
192.168.56.30 logstash2.linuxtechi.local 192.168.56.30 logstash2.linuxtechi.local
``` ```
现在配置 `filebeat`,以便它可以使用负载平衡技术向 logstash 节点发送日志,编辑文件 `/etc/filebeat/filebeat.yml`,并添加以下参数:
现在配置 filebeat以便它可以使用负载平衡技术向 logstash 节点发送日志,编辑文件 **/etc/filebeat/filebeat.yml**,并添加以下参数, `filebeat.inputs:` 部分将 `enabled: false` 更改为 `enabled: true`,并在 `paths` 参数下指定我们可以发送到 logstash 的日志文件的位置;注释掉 `output.elasticsearch``host` 参数;删除 `output.logstash:``hosts:` 的注释,并在 `hosts` 参数添加两个 logstash 节点,以及设置 `loadbalance: true`
在 “**filebeat.inputs:**”部分将“**enabled: false**”更改为“**enabled: true**”,并在“**paths**”参数下指定我们可以发送到 logstash 的日志文件的位置,在 Elasticsearch 输出部分注释掉“**output.elasticsearch**”和**host**参数。在 Logstash 输出部分,删除“**output.logstash:**” 和 “**hosts:**” 的注释,并在 hosts 参数和 “**loadbalance: true**” 中添加 logstash 节点。
``` ```
[root@linuxtechi ~]# vi /etc/filebeat/filebeat.yml [root@linuxtechi ~]# vi /etc/filebeat/filebeat.yml
……………………….
filebeat.inputs: filebeat.inputs:
- type: log - type: log
enabled: true enabled: true
@ -422,46 +400,42 @@ filebeat.inputs:
output.logstash: output.logstash:
hosts: ["logstash1.linuxtechi.local:5044", "logstash2.linuxtechi.local:5044"] hosts: ["logstash1.linuxtechi.local:5044", "logstash2.linuxtechi.local:5044"]
loadbalance: true loadbalance: true
………………………………………
``` ```
使用下面的2个 systemctl 命令 启动并启用 filebeat 服务 使用下面的 2 个 `systemctl` 命令 启动并启用 `filebeat` 服务:
``` ```
[root@linuxtechi ~]# systemctl start filebeat [root@linuxtechi ~]# systemctl start filebeat
[root@linuxtechi ~]# systemctl enable filebeat [root@linuxtechi ~]# systemctl enable filebeat
``` ```
现在转到 Kibana 用户界面,验证新索引是否可见 现在转到 Kibana 用户界面,验证新索引是否可见
从左侧栏中选择管理选项,然后单击 Elasticsearch 下的索引管理 从左侧栏中选择管理选项,然后单击 Elasticsearch 下的索引管理
[![Elasticsearch-index-management-Kibana][1]][6] ![Elasticsearch-index-management-Kibana][6]
正如我们上面看到的,索引现在是可见的,让我们创建索引模型, 正如我们上面看到的,索引现在是可见的,让我们现在创建索引模型。
点击 Kibana 部分的 “Index Patterns”它将提示我们创建一个新模型点击 “Create Index Pattern” ,并将模式名称指定为 “filebeat”
点击 Kibana 部分的 “索引模型”,它将提示我们创建一个新模型,点击 **Create Index Pattern** ,并将模式名称指定为 **filebeat** ![Define-Index-Pattern-Kibana-RHEL8][7]
[![Define-Index-Pattern-Kibana-RHEL8][1]][7] 点击下一步。
选择 “Timestamp” 作为索引模型的时间过滤器,然后单击 “Create index pattern”
点击下一步 ![Time-Filter-Index-Pattern-Kibana-RHEL8][8]
选择 **Timestamp** 作为索引模型的时间过滤器,然后单击 “Create index pattern” ![filebeat-index-pattern-overview-Kibana][9]
[![Time-Filter-Index-Pattern-Kibana-RHEL8][1]][8] 现在单击查看实时 filebeat 索引模型:
[![filebeat-index-pattern-overview-Kibana][1]][9]
现在单击查看实时 filebeat 索引模型,
[![Discover-Kibana-REHL8][1]][10]
![Discover-Kibana-REHL8][10]
这表明 Filebeat 代理已配置成功,我们能够在 Kibana 仪表盘上看到实时日志。 这表明 Filebeat 代理已配置成功,我们能够在 Kibana 仪表盘上看到实时日志。
以上就是本文的全部内容,对这些帮助您在 RHEL 8 / CentOS 8 系统上设置 Elastic Stack集群的步骤请不要犹豫分享您的反馈和意见 以上就是本文的全部内容,对这些帮助你在 RHEL 8 / CentOS 8 系统上设置 Elastic Stack 集群的步骤,请不要犹豫分享你的反馈和意见。
-------------------------------------------------------------------------------- --------------------------------------------------------------------------------
@ -470,7 +444,7 @@ via: https://www.linuxtechi.com/setup-multinode-elastic-stack-cluster-rhel8-cent
作者:[Pradeep Kumar][a] 作者:[Pradeep Kumar][a]
选题:[lujun9972][b] 选题:[lujun9972][b]
译者:[heguangzhi](https://github.com/heguangzhi) 译者:[heguangzhi](https://github.com/heguangzhi)
校对:[校对者ID](https://github.com/校对者ID) 校对:[wxy](https://github.com/wxy)
本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出 本文由 [LCTT](https://github.com/LCTT/TranslateProject) 原创编译,[Linux中国](https://linux.cn/) 荣誉推出
@ -478,7 +452,7 @@ via: https://www.linuxtechi.com/setup-multinode-elastic-stack-cluster-rhel8-cent
[b]: https://github.com/lujun9972 [b]: https://github.com/lujun9972
[1]: data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7 [1]: data:image/gif;base64,R0lGODlhAQABAIAAAAAAAP///yH5BAEAAAAALAAAAAABAAEAAAIBRAA7
[2]: https://www.linuxtechi.com/wp-content/uploads/2019/09/Elastic-Stack-Cluster-RHEL8-CentOS8.jpg [2]: https://www.linuxtechi.com/wp-content/uploads/2019/09/Elastic-Stack-Cluster-RHEL8-CentOS8.jpg
[3]: https://www.linuxtechi.com/setup-local-yum-dnf-repository-rhel-8/ [3]: https://www.linuxtechi.com/wp-content/uploads/2019/09/Elasticsearch-cluster-status-rhel8.jpg
[4]: https://www.linuxtechi.com/wp-content/uploads/2019/09/Kibana-Dashboard-rhel8.jpg [4]: https://www.linuxtechi.com/wp-content/uploads/2019/09/Kibana-Dashboard-rhel8.jpg
[5]: https://www.linuxtechi.com/wp-content/uploads/2019/09/Stack-Monitoring-Overview-RHEL8.jpg [5]: https://www.linuxtechi.com/wp-content/uploads/2019/09/Stack-Monitoring-Overview-RHEL8.jpg
[6]: https://www.linuxtechi.com/wp-content/uploads/2019/09/Elasticsearch-index-management-Kibana.jpg [6]: https://www.linuxtechi.com/wp-content/uploads/2019/09/Elasticsearch-index-management-Kibana.jpg