前日自己写了几篇关于ELK日志收集,存储和剖析的篇章:

ELK系列~NLog.Targets.Fluentd到达怎样通过tcp发到fluentd

ELK系列~Nxlog日志收集加转发(解决log4日记换行导致json转换失利问题)

ELK系列~log4-nxlog-Fluentd-elasticsearch写json数据需要小心的几点

前几天第一说一个日记收集里的多输入端(收集五个网站的日志)的贯彻模式。

对于日记的采访与转一向说,nxlog可以说很不利,异步将本地日志上传到对象的服务端,而且援助的服务端也很多,在nxlog里这么些服务端都叫“输出端”,在nxlog.conf里采用output表示,而我辈的日记是输入端,用input表示,下边来讲一下怎么样兑现多输入端的方法。

实际很简短,只要在nxlog.conf里安排一下就可以了,具体代码如下

<Input in1>
    Module    im_file
    File    "c:\dotnet\20*.log"
</Input>

<Input in2>
    Module    im_file
    File    "c:\dotnet\20*.log"
 </Input>

<Output out> 
Module om_tcp 
Host 192.168.200.214 
Port 24224 
Exec $raw_event =$raw_event + "\n"; 
</Output>

<Route 1> 
    Path        in1,in2 => out
</Route>

地点的route节点,将in1和in2五个输入端指向了一个out输出端,我们的输出端实现fluentd来实现的!

感谢各位阅读!

晚安!

相关文章

网站地图xml地图