老熟女激烈的高潮_日韩一级黄色录像_亚洲1区2区3区视频_精品少妇一区二区三区在线播放_国产欧美日产久久_午夜福利精品导航凹凸

重慶分公司,新征程啟航

為企業提供網站建設、域名注冊、服務器等服務

heka從kalka中讀取數據的示例分析

這期內容當中小編將會給大家帶來有關heka從kalka中讀取數據的示例分析,文章內容豐富且以專業的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。

創新互聯是專業的如皋網站建設公司,如皋接單;提供網站制作、成都做網站,網頁設計,網站設計,建網站,PHP網站建設等專業做網站服務;采用PHP框架,可快速的進行如皋網站開發網頁制作和功能擴展;專業做搜索引擎喜愛的網站,專業的做網站團隊,希望更多企業前來合作!

heka從kalka中讀取數據。

配置:

[hekad]
maxprocs = 2

[KafkaInputExample]
type = "KafkaInput"
topic = "test"
addrs = ["localhost:9092"]

[RstEncoder]

[LogOutput]
message_matcher = "TRUE"
encoder = "RstEncoder"

上述配置只有從kalfka中讀取數據并顯示到console,寫到kalfka中數據,

heka從kalka中讀取數據的示例分析

結果

:Timestamp: 2016-07-21 09:39:46.342093657 +0000 UTC
:Type: heka.kafka
:Hostname: master
:Pid: 0
:Uuid: 501b0a0e-63a9-4eee-b9ca-ab572c17d273
:Logger: KafkaInputExample
:Payload: {"msg":"Start Request","event":"artemis.web.ensure-running1","userid":"12","extra":{"workspace-id":"cN907xLngi"},"time":"2015-05-06T    20:40:05.509926234Z","severity":1}
:EnvVersion: 
:Severity: 7
:Fields:
    | name:"Key" type:bytes value:
    | name:"Topic" type:string value:"test"
    | name:"Partition" type:integer value:0
    | name:"Offset" type:integer value:8

讀取出來的數據放到了payload中,而fileds中存放了讀取kalkfa中的一些信息。那么可以使用jsondecoder進行解析。

[hekad]
maxprocs = 2

[KafkaInputExample]
type = "KafkaInput"
topic = "test"
addrs = ["localhost:9092"]
decoder="JsonDecoder"

[JsonDecoder]
type = "SandboxDecoder"
filename = "lua_decoders/json.lua"

        [JsonDecoder.config]
        type = "artemis"
        payload_keep = true
        map_fields = true
        Severity = "severity"

[RstEncoder]

[LogOutput]
message_matcher = "TRUE"
encoder = "RstEncoder"

結果如下:

:Timestamp: 2016-07-21 09:42:34 +0000 UTC
:Type: artemis
:Hostname: master
:Pid: 0
:Uuid: 3965285c-70ac-4069-a1a3-a9bcf518d3e8
:Logger: KafkaInputExample
:Payload: {"msg":"Start Request","event":"artemis.web.ensure-running2","userid":"11","extra":{"workspace-id":"cN907xLngi"},"time":"2015-05-06T    20:40:05.509926234Z","severity":1}
:EnvVersion: 
:Severity: 1
:Fields:
    | name:"time" type:string value:"2015-05-06T    20:40:05.509926234Z"
    | name:"msg" type:string value:"Start Request"
    | name:"userid" type:string value:"11"
    | name:"event" type:string value:"artemis.web.ensure-running2"
    | name:"extra.workspace-id" type:string value:"cN907xLngi"

經過decoder解析之后,fileds發生了改變,但是我們可以看到Logger顯示的還是KafkaInputExample,說明數據不是decoder產生,而是Input產生,只不過使用了decoder進行了解析,重寫改寫了fields而已。

接下來,把數據錄入都es中吧。
[hekad]
maxprocs = 2

[KafkaInputExample]
type = "KafkaInput"
topic = "test"
addrs = ["localhost:9092"]
decoder="JsonDecoder"

[JsonDecoder]
type = "SandboxDecoder"
filename = "lua_decoders/json.lua"

        [JsonDecoder.config]
        type = "artemis"
        payload_keep = true
        map_fields = true
        Severity = "severity"

[ESJsonEncoder]
index = "%{Type}-%{%Y.%m.%d}"
es_index_from_timestamp = true
type_name = "%{Type}"
    [ESJsonEncoder.field_mappings]
    Timestamp = "@timestamp"
    Severity = "level"

[ElasticSearchOutput]
message_matcher = "TRUE"
encoder = "ESJsonEncoder"
flush_interval = 1

導入到es中,也需要json,所以使用ESJsonEncoder,同時指定索引名字和類型。執行結果如下,

heka從kalka中讀取數據的示例分析

可以看到,除了heka中元數據field之外,還有JsonDecoder生成field啊,其實是截取JsonDecoder中的fields屬性中拿出。注意,Payload不解析。

:Fields:
    | name:"time" type:string value:"2015-05-06T    20:40:05.509926234Z"
    | name:"msg" type:string value:"Start Request"
    | name:"userid" type:string value:"11"
    | name:"event" type:string value:"artemis.web.ensure-running2"
    | name:"extra.workspace-id" type:string value:"cN907xLngi"

這些field當然隨著數據不同而不同,那么稱之為dynamic fileds。

入es的時候,可以指定提取哪些dynamic fields,

fields=["Timestamp","Uuid","Type","Logger","Pid","Hostname","DynamicFields"]
dynamic_fields=["msg","userid"]

只要使用dynamic_fileds,就必須要在fields中指定DynamicFields。

如果沒有dynamic_fileds,那么fields只能列舉幾個固定的屬性,參照官方文檔即可。

完成的列子:

[hekad]
maxprocs = 2

[KafkaInputExample]
type = "KafkaInput"
topic = "test"
addrs = ["localhost:9092"]
decoder="JsonDecoder"

[JsonDecoder]
type = "SandboxDecoder"
[hekad]
maxprocs = 2

[KafkaInputExample]
type = "KafkaInput"
topic = "test"
addrs = ["localhost:9092"]
decoder="JsonDecoder"

[JsonDecoder]
type = "SandboxDecoder"
filename = "lua_decoders/json.lua"

        [JsonDecoder.config]
        type = "artemis"
        payload_keep = true
        map_fields = true
        Severity = "severity"

[ESJsonEncoder]
index = "%{Type}-%{%Y.%m.%d}"
es_index_from_timestamp = true
type_name = "%{Type}"
fields=["Timestamp","Uuid","Type","Logger","Pid","Hostname","DynamicFields"]
dynamic_fields=["msg","userid"]

raw_bytes_fields=["Payload"]
    [ESJsonEncoder.field_mappings]
    Timestamp = "@timestamp"
    Severity = "level"

[ElasticSearchOutput]
message_matcher = "TRUE"
encoder = "ESJsonEncoder"
flush_interval = 1

結果如下,

heka從kalka中讀取數據的示例分析

上述就是小編為大家分享的heka從kalka中讀取數據的示例分析了,如果剛好有類似的疑惑,不妨參照上述分析進行理解。如果想知道更多相關知識,歡迎關注創新互聯行業資訊頻道。


文章題目:heka從kalka中讀取數據的示例分析
文章起源:http://www.xueling.net.cn/article/jgchjs.html

其他資訊

在線咨詢
服務熱線
服務熱線:028-86922220
TOP
主站蜘蛛池模板: 成人免费看黄网站yyy456 | 九色视频人porny | 97超碰在线视 | 国产一区二区三区免费在线观看 | 国产你懂的在线观看 | 国产精品国产三级国产午 | 视频在线亚洲 | 成人免费在线播放 | 蜜臀av999无码精品国产专区 | 激情偷乱人伦小说视频在线精 | 美女又大又黄www免费网站 | 欧美性受xxxx黑人猛交 | 欧美区精品系列在线观看不卡 | 午夜视频黄 | 国产a一级无码毛片一区二区三区 | 污污网站18禁在线永久免费观看 | 草逼网首页 | 国产精品沙发系列 | 高清人妻喷潮AV综合网 | 亚洲AV久久精品狠狠爱AV | 99热网址 | 成人性色生活片免费看爆迷你毛片 | 亚洲AV无码专区亚洲AV紧身裤 | 久久无码人妻国产一区二区 | 老司机avhd101| 日韩一区二区a片免费观看 法国性xxxx精品hd | 综合久久一区 | 中文字幕一级毛片无码视频 | 国产又黄又潮娇喘视频在线观看 | 嘿咻嘿咻免费区在线观看 | 91资源在线播放 | 国产极品粉嫩福利在线观看 | 久久无套 | 国产精品久久精品三级 | 亚洲性毛片 | 国产精品丝袜久久久久久不卡 | 亚洲精品成人自拍 | 欧美一级淫片aaaaaaa | 精品水蜜桃久久久久久久 | 精品一区二区精品 | 成全高清免费观看MV动漫 |