是否可以将从性能中心获取的分析报告推送到Logstash并在Kibana中将其可视化?我只是想自动化检查每个vuser日志文件,然后将错误推送到ELK堆栈的任务。如何通过脚本检索文件并将其自动化。我对此没有任何方向,因为我需要自动执行自动读取每个vuser_log文件的任务。

最佳答案

Filebeat 应该是您完成所提及内容的工具。

要自动读取您写在文件(可能是日志文件)中的条目,您只需要一个可以是Filebeat的运货工具(它与ELK堆栈集成得很好。Logstash也可以做同样的事情,但是很重,并且需要JVM)

要在ELK堆栈中执行此操作,您需要执行以下操作:

  • 应在运行主应用程序并生成日志的“所有”实例上设置文件拍子
    Filebeat是一种简单的轻型托运人工具,可以读取您的日志条目,然后将其发送到Logstash。
  • 设置 Logstash (即ELK的L)的一个实例,该实例将从Filebeat接收事件。 Logstash将数据发送到Elastic Search
  • 设置 Elasticsearch (即ELK的E)的一个实例,将在其中存储数据
  • 设置 Kibana (ELK的K)的一个实例。 Kibana是用于通过Rest调用
  • 查看和与Elastic搜索交互的前端工具

    请引用以下链接进行上述设置:

    https://logz.io/blog/elastic-stack-windows/

    关于elasticsearch - 如何通过 Elasticsearch 将性能测试日志推送到kibana,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/50732621/

    10-10 11:36