我的
ELK
搭建筆記(基于阿里云)
“不是最好的,但一定是有良心的操作記錄。”目錄一覽
0 重不重要都得有的開頭
1 安裝配置
1.1 CentOS 7.x環境準備
1.1.1 安裝操作系統
1.1.2 更新系統軟件包(可選)
1.1.3 更改主機名(可選)
1.1.4 創建應用賬號(必選)
1.1.5 安裝Java運行環境(可選)
1.2 ELK安裝
1.2.1 安裝ElasticSearch with x-pack
1.2.2 Trouble shooting for elasticsearch
1.2.3 安裝Logstash
1.2.4 Trouble Shooting for Logstash
1.2.5 安裝Kibana with x-pack
1.2.6 Kibana界面日志檢索
2 最佳實踐
2.1 Logstash & JDBC
2.1.1 安裝jdbc-input插件
2.1.2 下載jdbc-mysql連接驅動
2.1.3 配置jdbc日志收集參數
2.1.4 啟動Logstash連接數據庫收集日志
2.2 Kibana相關
2.2.1 獲取指定索引下指定類型日志的映射表
2.2.2 修改數據類型映射mappings
2.2.3 判斷字段是否存在
3 參考資料
0重不重要都得有的開頭
下面一段摘抄自互聯網 http://baidu.blog.51cto.com/71938/1676798ELK平臺是當前應用比較廣泛的一套開源實時日志分析解決方案。ELK由ElasticSearch、Logstash和Kiabana三個開源工具組成。官方網站: https://www.elastic.co/products
Elasticsearch是個開源分布式搜索引擎,它的特點有:分布式,零配置,自動發現,索引自動分片,索引副本機制,restful風格接口,多數據源,自動搜索負載等。
Logstash是一個完全開源的工具,他可以對你的日志進行收集、過濾,并將其存儲供以后使用(如,搜索)。
Kibana 也是一個開源和免費的工具,Kibana可以為 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以幫助您匯總、分析和搜索重要數據日志。
1安裝配置
1.1 CentOS 7.x環境準備
******1.1.1 安裝操作系統**以阿里云
ECS
主機為例,
安裝系統時選擇
CentOS 7.2 64
位版本。
1.1.2 更新系統軟件包(可選)[root@elk-test ~]# yum update1.1.3 更改主機名(可選)[root@iZ2ze1filcblgjr9dcoxioZ ~]# hostnameelk-test[root@iZ2ze1filcblgjr9dcoxioZ ~]# hostname# elk-test[root@elk-test ~]# 1.1.4 創建應用賬號(必選)以應用賬號身份啟動
ElasticSearch、
Logstash和
Kibana[root@elk-test ~]# useradd elk-test1.1.5 安裝Java運行環境(可選)下載
JRE安裝包
,并上傳到服務器
root
用戶目錄
以
root身份安裝
JRE:
yum localinstall jre-8u121-linux-x64.rpm
配置
Java環境變量:
編輯文件
/etc/profile
在文件末尾增加如下內容
驗證
Java環境,
執行命令
java -version查看
Java版本信息,
如果一切正常的話,能看到如下信息:
java version 1.8.0_121Java(TM) SE Runtime Environment (build 1.8.0_121-b13)Java HotSpot(TM) 64-Bit Server VM (build 25.121-b13, mixed mode)
如有需要,也可
下載
Server JRE手工安裝。
******1.2 ELK安裝**
******1.2.1 安裝ElasticSearch with x-pac**執行命令
su - elk-test切換到應用賬戶
elk-test,下載和安裝
ElasticSearch和
x-pack安全組件。如果你不需要安全認證,
x-pack組件可以不用安裝,相應的配置參數也不必設置。
根據需要,修改文件
ElasticSearch目錄下
config/jvm.options文件,調整
jvm內存參數。
修改監聽端口,允許外部系統遠程訪問:
編輯文件
config/elasticsearch.yml
修改參數
network.host的數值
啟動
驗證
ElasticSearch服務,執行命令:
curl http://elastic:changeme@10.0.0.136:9200
期待返回內容如下:
1.2.2 Tr****ouble shooting for elasticsearchmax file descriptors
max file descriptors [65535] forelasticsearch process likely too low, increase to at least [65536]
修改文件
/etc/security/limits.conf,末尾增加如下內容
:* soft nofile 65536* hard nofile 65536max virtual memory
max virtual memory areas vm.max_map_count[65530] likely too low, increase to at least [262144]
修改文件
/etc/sysctl.conf
設置參數
vm.max_map_count= 262144
執行命令
sysctl -p
完成以上步驟,重新
su - elk-test
再來啟動
ElasticSearch
。
1.2.3 安裝Logstash下載
Logstash
測試一段
syslog日志文本。在
logstash主目錄創建配置文件
sample.conf,內容如下
執行命令
bing/logstsh -f sample.comf
,啟動
Logstash。
****啟動后,輸入以下內容:
Jan 19 12:28:31 elk-test sshd[13990]:pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=sshruser= rhost=92.246.190.31 user=root
可以看到
Logstash在
Console返回的輸出內容,同時以上內容也發送到了
ElasticSearch。
**1.2.4 Trouble Shooting for Logstash******為什么Logstash啟動特別緩慢?
原因可能是
JVM的隨機數字生成參數導致,診斷和修改方式:
修改文件
$JAVA_HOME/jre/lib/security/java.security
設置參數
securerandom.source=file:/dev/urandom
重新啟動
Logstash,是不是快多了?
為什么要這么做,我已經幫你搜好了,請參考以下文檔:
StackOverflow-Logstashstartup time #5491
-
Orace官方
-Avoiding JVM Delays Caused byRandom Number Generation
**1.2.5 安裝Kibana with x-pack******執行命令
su - elk-test切換到應用賬戶
elk-test,下載和安裝
Kibana和
x-pack安全組件。
設置
Kibaba對外開放的
IP和
ElasticSearch的
url編輯文件
config/kibana.yml
設置參數
server.host和
elasticsearch.url
啟動
訪問
Kibanna,驗證服務,用戶名
/密碼:
看到如下界面,即表示成功,稍后再來配置。
1.2.6 Kibana界面日志檢索只有當第一條日志通過
Logstash進入
ElasticSearch后,才能配置
Kibana索引
pattern。
操作方法是:進入
Kibana設置界面,點擊
Create按鈕。
其中
Index Pattern名稱必須與
Logstash中
output參數設置的一致。如果
output參數沒有設置,則默認為
logstash-*****
****如果你的日志中有特定的時間字段,這里可以單獨設置。
如果
Logstash的
output中已經配置了
index的名稱,則必須在新的日志進入
ElasticSearch后,才能在
Kibana上創建新的
index pattern。進入
Kibana的
Dashboard,搜索日志,認真體驗。
********
2最佳實踐
**2.1 Logstash & JDBC********2.1.1 安裝jdbc-input插件******進入
Logstash目錄,執行命令
bin/logstash-plugin install logstash-input-jdbc安裝
JDBC輸入插件。
2.1.2 下載jdbc-mysql連接驅動訪問
MySQL網站,
https://dev.mysql.com/downloads/connector/j/,下載
mysql-connector-java-5.1.40,或執行命令下載。
2.1.3 配置jdbc日志收集參數創建文件
jdbc-login-logs-logstash.conf,并設置
Logstash每隔
5分鐘(
*/5 * * * *)連接一次數據庫,將新增的日志發送到
ElasticSearch服務器。
2.1.4 啟動Logstash連接數據庫收集日志執行命令
bin/logstash -f jdbc-login-logs-logstash.conf
2.2 Kibana相關
2.2.1 獲取指定索引下指定類型日志的映射表Kibana主界面左側,點擊開發工具按鈕。
進入
Console界面,執行如下命令:
GET logstash-nginx/_mappings/alm注意:替換
alm字符串為你自己的日志類型(來自
Logstash的
output參數)
返回如下:
2.2.2 修改數據類型映射mappings已經創建的
mappings是不能直接修改的。通常是刪除后再創建一個新的修改后的
mappings版本。參考文檔
:ChangingMapping with Zero Downtime2.2.3 判斷字段是否存在搜索執行
exists:field_name,如:
exists:login_ip3參考資料
**折騰過程中,得到了以下參考資料的幫助,一并感謝!
**Elastic中文社區
官方網站
ELK 部署指南
分布式日志收集之
Logstash 筆記(一)
Elasticsearch 權威指南(中文版)
初探
ELK-logstash使用小結
logstash服務啟動腳本
ELK安裝配置之集群相關介紹及搭建
ELK日志管理之
——logstash部署
How to Delete Data from Elasticsearch
Experiments with Kibana Timelion
Geo數據類型問題
以上內容只是最基礎的
Hello World版本
ELK部署說明,還不涉及到集群、分布式收集、
grok高級技巧等。關于復雜場景下的
ELK部署和應用,等我功力提升后再來分享啦!
*為解決文中部分圖片不夠清晰問題,您也可以通過以下鏈接查看原文(高清)內容: