背景
我們在做大數(shù)據(jù)的項目時經(jīng)常遇到數(shù)據(jù)同步的問題,kafka到es是一個比較常見的數(shù)據(jù)同步管道。有這樣的一個需求,kafka入es的過程中,我們需要達到如下效果:kafka中同一個topic數(shù)據(jù)流可以動態(tài)的插入到es不同的type里面,當然,它們是同一個index。什么叫動態(tài)插入?舉個例子:譬如我們按照時間來切分type,每個小時為單位,那么,在三點到四點之間,數(shù)據(jù)就會同步到type為2018011003里面,在四點到五點之間,數(shù)據(jù)就會同步到type為2018011004里面。將這個需求往深處想的話,同樣,是不是可以實現(xiàn)動態(tài)index插入呢?答案是可以的。
實現(xiàn)原理
river這個es插件大家不知道聽過沒,我們可以利用river實現(xiàn)該功能。網(wǎng)上有很多現(xiàn)成的開源插件elasticsearch-river-kafka,它們都有個共同點就是只能靜態(tài)的同步數(shù)據(jù)。這里的靜態(tài)指的是不能動態(tài)生成index和type。所以,我們基于開源庫elasticsearch-river-kafka,可以自己動手修改代碼,來實現(xiàn)我們想要的功能。而且,這個插件本身就是支持自定義開發(fā)的。
步驟
kafka:v0.10
elasticsearch:v1.7.0
一:代碼庫地址
github:elasticsearch-river-kafka
我是fork別人的開源項目,在此基礎(chǔ)上自己修改的代碼,原項目地址
二:安裝該插件
- 方式一
去你安裝elasticsearch的機器上,找到es下的bin目錄執(zhí)行安裝插件命令
cd $ELASTICSEARCH_HOME
./bin/plugin --install <plugin-name> --url https://github.com/zhuyinglinfeng/elasticsearch-river-kafka/archive/master.zip
- 方式二
如果你本地已經(jīng)clone了該項目,直接本地編譯打包,然后把zip包發(fā)送到安裝elasticsearch的機器上面,再執(zhí)行安裝插件命令
cd $ELASTICSEARCH_HOME
./bin/plugin --install <plugin-name> --url file:<zip_path>
三:配置river(這個是重點哦)
一條river代表著一條同步規(guī)則,創(chuàng)建river很簡單,執(zhí)行如下的命令即可
curl -XPUT 'localhost:9200/_river/<river-name>/_meta' -d '
{
"type" : "kafka",
"kafka" : {
"zookeeper.connect" : <zookeeper.connect>,
"zookeeper.connection.timeout.ms" : <zookeeper.connection.timeout.ms>,
"topic" : <topic.name>,
"message.type" : <message.type>
},
"index" : {
"index" : <index.name>,
"frequency.index" : <frequency.index>,
"type" : <mapping.type.name>,
"frequency.type" : <frequency.type>,
"bulk.size" : <bulk.size>,
"concurrent.requests" : <concurrent.requests>,
"action.type" : <action.type>,
"flush.interval" : <flush.interval>
},
"statsd" : {
"host" : <statsd.host>,
"prefix" : <statsd.prefix>,
"port" : <statsd.port>,
"log.interval" : <statsd.log.interval>
}
}'
參數(shù)名字 | 是否必填 | 默認值 | 描述 |
---|---|---|---|
river-name | 是 | 無 | 名字 |
zookeeper.connect | 否 | localhost | zoo的地址 |
zookeeper.connection.timeout.ms | 否 | 10000 | zoo連接超時時間 |
topic | 否 | elasticsearch-river-kafka | topic名字 |
message.type | 否 | json | kafka消息類型,json/string |
index | 否 | kafka-index | ES索引 |
frequency.index | 否 | 無 | 動態(tài)索引切分頻率,1mon/1day/1hour/10min |
type | 否 | status | ES類型 |
frequency.type | 否 | 無 | 動態(tài)類型切分頻率,1mon/1day/1hour/10min |
bulk.size | 否 | 100 | 單次處理的消息數(shù)量 |
concurrent.requests | 否 | 1 | 并發(fā)請求數(shù) |
action.type | 否 | index | 同步行為,index(插入)/delete(刪除)/raw.execute(執(zhí)行語句) |
host | 否 | localhost | statsd服務(wù)地址 |
port | 否 | 8125 | statsd端口 |
prefix | 否 | kafka-river | statsd鍵值前綴 |
log.interval | 否 | 10 | statsd上報metrics時間間隔 |
Note:
如果填寫了frequency.index參數(shù),表示index根據(jù)時間動態(tài)創(chuàng)建,index參數(shù)可以不用填寫,即使填寫也不會生效
如果填寫了frequency.type參數(shù),表示type根據(jù)時間動態(tài)創(chuàng)建,type參數(shù)可以不用填寫,即使填寫也不會生效
Example:
將kafka中topic名字為topic-test流中的數(shù)據(jù)同步到index為index-test里面,并且每隔10min動態(tài)切換type類型
curl -XPUT 'localhost:9200/_river/river-test/_meta' -d '
{
"type": "kafka",
"kafka": {
"zookeeper.connect": "localhost",
"zookeeper.connection.timeout.ms": 10000,
"topic": "topic-test",
"message.type": "json"
},
"index": {
"index": "index-test",
"frequency.type”: "10min",
"bulk.size": 100,
"concurrent.requests": 1,
"action.type": "index",
"flush.interval": "5s"
}
}'
四:重啟elasticsearch
查詢進程號:ps -ef | grep elastic
關(guān)閉進程:kill -9 pid
啟動:./bin/elasticsearch -d
五:驗證
到此為止,理論上已經(jīng)全部完成,現(xiàn)在可以往kafka中寫數(shù)據(jù)了,不出意外,如果你的<flush.interval>參數(shù)設(shè)置很短的話,幾秒后es中就可以查看數(shù)據(jù)了
升級維護
- 插件刪除
./bin/plugin --remove <plugin-name>
- 刪除river
和刪除elasticsearch數(shù)據(jù)方式一樣,利用es提供的接口命令刪除即可
curl -XDELETE 'localhost:9200/_river/river-test/'
- 代碼升級
如果你想要手動改寫代碼,也很簡單,fork一下代碼庫,自己本地升級代碼,然后按照上面的步驟就可以
自定義elasticsearch-river-kafka開發(fā)
......待完善