2014-09-05 80 views
0

我配置了Logstash + logstash forwarder + kibana + Elasticsearch。它使用系统日志,如Apache错误日志& syslogs。现在,我有一个应用程序日志,下面像,Logstash + logstash forwarder + kibana + Elasticsearch的自定义日志

发件人:[email protected] CREATE_TIME:周四09月04日二时41分54秒2014 收件人:[email protected]

我怎么能读上面的日志文件通过kibana。有人在这方面帮助我。你的帮助非常合适。

+0

你想阅读了关于[grok filter](http://logstash.net/docs/1.4.2/filters/grok)并尝试设置自定义模式来解析这些日志。甚至有一个[grok sandbox](http://grokdebug.herokuapp.com/)来测试你的工作。 – rutter 2014-09-05 18:50:39

回答

0

您的logstash应该在分析您的日志之前将其推送到elasticsearch中。

我认为目前,你的logstash有一个输入(lumberjack)和一个输出(ES)。您应该添加至少一个grok过滤器(最流行)来提取新的语义字段。

然后你就可以根据这些新的领域:)

看到这里创建可视化:logstash.net/docs/1.4.2/filters/grok

相关问题