前言
Elasticsearch + Logstash + Kibana(ELK)是一套開源的日志管理方案,分析網站的通路情況時我們一般會借助 Google / 百度 / CNZZ 等方式嵌入 JS 做資料統計,但是當網站通路異常或者被攻擊時我們需要在背景分析如 Nginx 的具體日志,而 Nginx 日志分割 / GoAccess/Awstats 都是相對簡單的單節點解決方案,針對分布式叢集或者資料量級較大時會顯得心有餘而力不足,而 ELK 的出現可以使我們從容面對新的挑戰。
Logstash:負責日志的收集,處理和儲存
Elasticsearch:負責日志檢索和分析
Kibana:負責日志的可視化
ELK(Elasticsearch + Logstash + Kibana)

搭建過程
環境準備
下載下傳RPM包
P.S: 由于ES的官網的速度對我們國内很不友好,我已經将安裝包傳至國内網站上,直接下載下傳即可
kibana-7.8.0-x86_64.rpm elasticsearch-7.8.0-x86_64.rpm logstash-7.8.0.rpmwindows:先下載下傳在主機上,通過軟體上傳至伺服器端
Linux:通過SCP指令上傳至伺服器端
安裝Elasticsearch
yum -y install elasticsearch-7.8.0-x86_64.rpm
sed -i '17s/#cluster.name: my-application/cluster.name: elk/' /etc/elasticsearch/elasticsearch.yml
sed -i '23s/#node.name: node-1/node.name: node-1/' /etc/elasticsearch/elasticsearch.yml
sed -i '55s/#network.host: 192.168.0.1/network.host: 127.0.0.1/' /etc/elasticsearch/elasticsearch.yml
systemctl daemon-reload
systemctl enable elasticsearch.service
systemctl start elasticsearch
安裝Kibana
yum -y install kibana-7.8.0-x86_64.rpm
sed -i '7s/#server.host: "localhost"/server.host: "0.0.0.0"/' /etc/kibana/kibana.yml
sed -i '28s/#elasticsearch.hosts: .*/elasticsearch.hosts: ["http:\/\/127.0.0.1:9200"]/' /etc/kibana/kibana.yml
#清空防火牆規則
iptables -F
service iptables save
systemctl enable kibana
systemctl start kibana
安裝Logstash
yum -y install logstash-7.8.0.rpm
驗證
通路
http://伺服器位址:5601/
至此,ELK(Elasticsearch + Logstash + Kibana) 搭建教程結束
- 如果時阿裡雲ECS需要添加安全組規則放行5601端口
寫在最後
如果文檔對你有幫助的話,留個贊再走吧 ,你的點選是我的最大動力。
我是鍵盤俠,現實中我唯唯諾諾,網絡上我重拳出擊,關注我,持續更新Linux幹貨教程。
更多鍵盤俠Linux系列教程:
連結位址更多Linux幹貨教程請掃:(回複
幹貨
)