Logstash配置详解

Logstash配置详解

一、配置文件

  • logstash.yml
    配置Logstash的yml。
  • pipelines.yml
    包含在单个Logstash实例中运行多个管道的框架和说明。
  • jvm.options
    配置Logstash的JVM,使用此文件设置总堆空间的初始值和最大值,此文件中的所有其他设置都被视为专家设置。
  • log4j2.properties
    包含log4j 2库的默认设置。

二、配置参数

2.1、logstash.yml配置

Logstash配置选项可以控制Logstash的执行。如:指定管道设置、配置文件位置、日志记录选项等。运行Logstash时,大多数配置可以命令行中指定,并覆盖文件的相关配置。

  • node.name 计算机的主机名
    节点的名称。
  • path.data LOGSTASH_HOME/data
    Logstash及其插件用于任何持久需求的目录。
  • pipeline.id main
    管道的ID。
  • pipeline.workers 主机cpu数
    设置output或filter插件的工作线程数。
  • pipeline.batch.size 125
    单个工作线程从输入收集的最大事件数。
  • pipeline.batch.delay 50
    创建管道事件批处理时,在将较小的批处理发送给管道工作人员之前,等待每个事件的时间(毫秒)。
  • pipeline.unsafe_shutdown false
    logstash在关闭时,默认会等到所有被处理的event都通过output输出后再执行关闭操作;如果设置为true,则允许强制关闭,而不必等待event处理完毕,此时可能会丢失数据。
  • pipeline.plugin_classloaders false
    在独立的类加载器中加载Java插件以隔离它们的依赖项。
  • pipeline.ordered auto
    设置管道事件顺序。有效选项包括:
    auto-如果是管道,则自动启用排序。workers设置为1,否则禁用。
    true-在管道上强制排序,如果有多个工作线程则阻止Logstash启动。
    false-禁用保持顺序所需的处理。
  • pipeline.ecs_compatibility disabled
    为ecs_compatibility设置管道的默认值,该设置可用于实现ecs兼容模式的插件,以便与Elastic Common Schema一起使用。
  • path.config LOGSTASH_HOME/config
    Logstash的配置路径。
  • config.string
    用于主管道的管道配置的字符串。
  • config.test_and_exit N/A
    设置为true时,检查配置是否有效,然后退出。请注意,使用此设置不会检查grok模式的正确性。Logstash可以从一个目录中读取多个配置文件。如果将此设置与日志相结合。level:debug,Logstash将记录组合的配置文件,并用源文件注释每个配置块。 false
  • config.reload.automatic false
    当设置为true时,定期检查配置是否已更改,并在更改时重新加载配置。这也可以通过SIGHUP信号手动触发。
  • config.reload.interval 3s
    Logstash检查配置文件更改的频率(以秒为单位)。请注意,单元限定符是必需的。
  • config.debug false
    设置为true时,将完全编译的配置显示为调试日志消息。还必须设置日志。级别:调试。警告:日志消息将包括以明文形式传递给插件配置的任何密码选项,并可能导致明文密码出现在日志中!
  • config.support_escapes false
    当设置为true时,带引号的字符串将处理以下转义序列:\n成为文字换行符(ASCII 10)。\r变成文字回车符(ASCII 13)。\t变为文字选项卡(ASCII 9)。\变成文字反斜杠\“变为文字双引号。'变为文字引号。
  • queue.type memory
    用于事件缓冲的内部队列模型。可选项:memory -内存,persisted-持久化。
  • path.queue path.data/queue
    启用持久队列时存储数据文件的目录路径(queue.type:persisted)。
  • queue.page_capacity 64mb
    启用持久队列时使用的页面数据文件的大小(queue.type:persisted)。队列数据由仅追加数据文件组成,这些文件被分隔成页面。
  • queue.max_events 0 (unlimited)
    启用持久队列时队列中未读事件的最大数量(queue.type:persisted)。
  • queue.max_bytes 1024mb (1g)
    队列的总容(queue.type:persisted)(字节数)。
  • queue.checkpoint.acks 1024
    启用持久队列时,强制检查点之前确认的最大事件数(queue.type:persisted)。指定queue.checkpoint。acks:0将此值设置为无限制。
  • queue.checkpoint.writes 1024
    启用持久队列时,在强制检查点之前写入的最大事件数(queue.type:persisted)。指定queue.checkpoint。写入:0以将此值设置为无限制。
  • queue.checkpoint.retry true
    启用后,对于任何失败的检查点写入,Logstash将在每次尝试检查点写入时重试四次。不会重试任何后续错误。对于只有在Windows平台、具有非标准行为(如SAN)的文件系统上才能看到的失败的检查点写入,这是一种解决方法,除非在这些特定情况下,否则不建议使用。(queue.type:持久化)
  • queue.drain false
    启用后,Logstash会等待持久队列(queue.type:persisted)清空后再关闭。
  • dead_letter_queue.enable false
    指示Logstash启用插件支持的DLQ功能的标志。
  • dead_letter_queue.max_bytes 1024mb
    每个死信队列的最大大小。如果条目会将死信队列的大小增加到超过此设置,则会删除这些条目。
  • dead_letter_queue.storage_policy drop_newer
    定义在执行dead_letter_queue时要执行的操作。达到maxbytes设置:dropnewer停止接受会使文件大小超过限制的新值,dropolder删除最旧的事件,为新事件腾出空间。
  • path.dead_letter_queue path.data/dead_letter_queue
    为死信队列存储数据文件的目录路径。
  • api.enabled true
    默认情况下启用HTTP API。它可以被禁用,但依赖它的功能将无法按预期工作。
  • api.environment production
    API返回所提供的字符串作为其响应的一部分。设置环境可能有助于消除生产环境和测试环境中名称相似的节点之间的歧义。
  • api.http.host "127.0.0.1"
    HTTP API端点的绑定地址。默认情况下,Logstash HTTP API仅绑定到本地环回接口。安全配置后(api.ssl.enabled:true和api.auth.type:basic),HTTP api绑定到所有可用接口。
  • api.http.port 9600-9700
    HTTP API端点的绑定端口。
  • api.ssl.enabled false
    设置为true可在HTTP API上启用SSL。这样做需要同时使用api.ssl.keystore。路径和api.ssl.keystore。要设置的密码。
  • api.ssl.keystore.path N/A
    用于保护Logstash API的有效JKS或PKCS12密钥库的路径。密钥库必须受密码保护,并且必须包含单个证书链和私钥。除非api.ssl,否则将忽略此设置。enabled设置为true。
  • api.ssl.keystore.password N/A
    api.ssl.keystore.path提供的密钥库密码。除非api.ssl,否则将忽略此设置。enabled设置为true。
  • api.auth.type none
    设置为basic以要求使用随API.auth.basic.username和API.auth.basic.password提供的凭据在API上进行HTTP basic身份验证。
  • api.auth.basic.username N/A
    HTTP Basic身份验证所需的用户名已忽略,除非是api.auth。type设置为basic。
  • api.auth.basic.password N/A
    HTTP Basic身份验证所需的密码。除非api.auth,否则忽略。type设置为basic。它应该符合默认密码策略,该策略要求非空的最少8个字符字符串,包括数字、大写字母和小写字母。可以通过以下选项自定义默认密码策略:
    设置api.auth.basic.password_policy.include。digit REQUIRED(默认)只接受包含至少一个数字的密码,或OPTIONAL(可选)从要求中排除。
    设置api.auth.basic.password_policy.include。upper REQUIRED(默认)只接受包含至少一个大写字母的密码,或OPTIONAL(可选)从要求中排除。
    设置api.auth.basic.password_policy.include。较低的REQUIRED(默认)只接受包含至少一个小写字母的密码,或OPTIONAL(可选)不接受要求。
    设置api.auth.basic.password_policy.include。symbol REQUIRED只接受包含至少一个特殊字符的密码,或OPTIONAL(默认)不接受要求。
    设置api.auth.basic.password_policy.length。如果希望密码的默认设置超过8个字符,则最小值为9到1024。
  • api.auth.basic.password_policy.mode WARN
    当不满足密码要求时,引发WARN或ERROR消息。
  • log.level info
    日志级别。有效选项包括:
    fatal
    error
    warn
    info
    debug
    trace
  • log.format plain
    日志格式。设置为json以json格式登录,或设置为plain以使用Object#.inspect。
  • path.logs LOGSTASH_HOME/logs
    Logstash将其日志写入的目录。
  • pipeline.separate_logs false
    这是一个布尔设置,用于在不同的日志文件中按管道分隔日志。如果启用,Logstash将使用管道为每个管道创建不同的日志文件。id作为文件名。目标目录取自`path。日志设置。当Logstash中配置了许多管道时,如果您需要对单个管道中发生的情况进行故障排除,而不受其他管道的干扰,那么将每个管道中的日志行分开可能会很有帮助。
  • path.plugins
    插件路径。
  • allow_superuser true
    设置为true允许或false阻止以超级用户身份运行Logstash。

2.2、管道配置

Logstash管道通常有三个阶段:输入→ 过滤器→ 输出。输入生成事件,过滤器修改它们,输出将它们发送到其他地方。

input {
  ...
}
filter {
  ...
}
output {
  ...
}

每个部分都包含一个或多个插件的配置选项。如果指定了多个过滤器,则会按照它们在配置文件中的显示顺序应用它们。如果指定多个输出,事件将按其在配置文件中出现的顺序依次发送到每个目标。
当准备好在本地机器之外部署管道时,使用pipeline.id设置将管道配置文件添加到logstash.yml存储。当您准备部署多个管道时,请在pipelines.yml中设置和配置。

2.3、高级配置

1、多管道配置

如果需要在同一个进程中运行多个管道,通过配置pipelines.yml文件来处理,必须放在path.settings文件夹中。并遵循以下结构:

# config/pipelines.yml
- pipeline.id: my-pipeline_1
  path.config: "/etc/path/to/p1.config"
  pipeline.workers: 3
- pipeline.id: my-other-pipeline
  path.config: "/etc/different/path/p2.cfg"
  queue.type: persisted

该示例显示了两个不同的管道,它们有ID和配置路径描述。对于第一条管道,pipeline.workers设置为3,而在另一个中,启用持久队列功能。未在pipelines.yml文件中明确设置的值将回退到logstash.yml文件中指定的默认值。
如果当前的配置中的事件流不共享相同的输入/过滤器和输出,并且使用标签和条件相互分隔,则使用多个管道特别有用。
在单个实例中具有多个管道还可以使这些事件流具有不同的性能和持久性参数(例如,工作线程数和持久队列的不同设置)。
持久队列和死信队列是按管道隔离的,它们的位置由pipeline.id值命名。

2、管道到管道的通信

使用Logstash的多管道功能时,您可能希望在同一个Logstash实例中连接多个管道。此配置可用于隔离这些管道的执行,以及帮助分解复杂管道的逻辑。管道输入/输出支持本文档后面讨论的许多高级架构模式。
如果需要设置Logstash实例之间的通信,请使用Logstash到Logstash通信或中间队列,如Kafka或Redis。

# config/pipelines.yml
- pipeline.id: beats-server
  config.string: |
    input { beats { port => 5044 } }
    output {
        if [type] == apache {
          pipeline { send_to => weblogs }
        } else if [type] == system {
          pipeline { send_to => syslog }
        } else {
          pipeline { send_to => fallback }
        }
    }
- pipeline.id: weblog-processing
  config.string: |
    input { pipeline { address => weblogs } }
    filter {
       # Weblog filter statements here...
    }
    output {
      elasticsearch { hosts => [es_cluster_a_host] }
    }
- pipeline.id: syslog-processing
  config.string: |
    input { pipeline { address => syslog } }
    filter {
       # Syslog filter statements here...
    }
    output {
      elasticsearch { hosts => [es_cluster_b_host] }
    }
- pipeline.id: fallback-processing
    config.string: |
    input { pipeline { address => fallback } }
    output { elasticsearch { hosts => [es_cluster_b_host] } }

管道输入充当侦听本地进程中单个虚拟地址的虚拟服务器。只有在同一本地Logstash上运行的管道输出才能将事件发送到此地址。管道输出可以将事件发送到虚拟地址列表。如果下游管道被阻塞或不可用,则管道输出将被阻塞。
当事件通过管道发送时,它们的数据被完全复制。对下游管道中事件的修改不会影响任何上游管道中的事件。
管道插件可能是管道之间通信的最有效方式,但它仍然会带来性能成本。Logstash必须在Java堆上为每个下游管道完全复制每个事件。使用此功能可能会影响Logstash的堆内存利用率。

3、重新加载配置文件

可以设置Logstash以自动检测和重新加载配置更改。
要启用自动配置重新加载,请使用-config.reload启动Logstash。指定了automatic(或-r)命令行选项。例如:

bin/logstash -f apache.config --config.reload.automatic

如果没有开启自动重新加载(--config.reload.automatic),可以强制Logstash重新加载配置文件并重新启动管道。

kill -SIGHUP 14175

14175是运行Logstash的进程的ID。

4、管道多行事件

(1)将Java堆栈跟踪合并到单个事件中
Java堆栈跟踪由多行组成,每行位于初始行之后,以空格开头,如本例所示:

Exception in thread "main" java.lang.NullPointerException
        at com.example.myproject.Book.getTitle(Book.java:16)
        at com.example.myproject.Author.getBookTitles(Author.java:25)
        at com.example.myproject.Bootstrap.main(Bootstrap.java:14)

要将这些行合并到Logstash中的单个事件中,请对多行编解码器使用以下配置:

input {
  stdin {
    codec => multiline {
      pattern => "^\s"
      what => "previous"
    }
  }
}

(2)将C-style的行延续合并到单个事件中
一些编程语言使用行尾的\字符表示该行继续,如本例所示:

printf ("%10.10ld  \t %10.10ld \t %s\
  %f", w, x, y, z );

要将这些行合并到Logstash中的单个事件中,请对多行编解码器使用以下配置:

input {
  stdin {
    codec => multiline {
      pattern => "\\$"
      what => "next"
    }
  }
}

此配置将以空格开头的任何行合并到前一行。

(3)合并时间戳事件的多行
Elasticsearch等服务的活动日志通常以时间戳开头,后跟特定活动的信息,如本例所示:

[2015-08-24 11:49:14,389][INFO ][env                      ] [Letha] using [1] data paths, mounts [[/
(/dev/disk1)]], net usable_space [34.5gb], net total_space [118.9gb], types [hfs]

要将这些行合并到Logstash中的单个事件中,请对多行编解码器使用以下配置:

input {
  file {
    path => "/var/log/someapp.log"
    codec => multiline {
      pattern => "^%{TIMESTAMP_ISO8601} "
      negate => true
      what => previous
    }
  }
}

此配置使用否定选项指定任何不以时间戳开头的行都属于前一行。

5、集中式管道管理配置

#设置为true可为Logstash启用X-Pack集中式配置管理。
xpack.management.enabled
#Logstash实例从Elasticsearch轮询管道更改的频率。默认值为5s。
xpack.management.logstash.poll_interval
#指定一个以逗号分隔的管道ID列表,以注册集中式管道管理。更改此设置后,需要重新启动Logstash以获取更改。管道ID支持*作为匹配多个ID的通配符。
xpack.management.pipeline.id
#将存储Logstash管道配置和元数据的Elasticsearch实例。这可能是Logstash配置中输出部分指定的相同Elasticsearch实例,也可能是不同的实例。
xpack.management.elasticsearch.hosts
#访问es的账号
xpack.management.elasticsearch.username 
#访问es的密码
xpack.management.elasticsearch.password
#可选设置,允许您在Logstash需要使用代理来访问Elasticsearch集群时指定代理URL。
xpack.management.elasticsearch.proxy
#可选设置,允许您为Elasticsearch实例指定证书颁发机构的十六进制编码SHA-256指纹。
xpack.management.elasticsearch.ssl.ca_trusted_fingerprint
#可选设置,允许您为Elasticsearch实例的证书颁发机构指定.pem文件的路径。
xpack.management.elasticsearch.ssl.certificate_authority
#可选设置,提供Java密钥库(JKS)的路径以验证服务器的证书。
xpack.management.elasticsearch.ssl.truststore.path
#为信任库提供密码的可选设置。
xpack.management.elasticsearch.ssl.truststore.password
#可选设置,提供Java密钥库(JKS)的路径以验证客户端的证书。
xpack.management.elasticsearch.ssl.keystore.path
#为密钥库提供密码的可选设置。
xpack.management.elasticsearch.ssl.keystore.password
#如果您在Elastic Cloud中使用Elasticsearch,则应在此处指定标识符。此设置是xpack.management.elasticsearch.hosts的替代设置。如果配置了cloud_id,请使用xpack.management.elasticsearch。不应使用主机。此Elasticsearch实例将存储Logstash管道配置和元数据。
xpack.management.elasticsearch.cloud_id
#如果您在Elastic Cloud中使用Elasticsearch,可以在此处设置身份验证凭据。此设置是xpack.management.elasticsearch的替代选项。用户名和xpack.management.elasticsearch.password。如果配置了cloud_auth,则不应使用这些设置。您在这里指定的凭据应该是针对具有logstash_admin角色的用户的,该角色提供对系统索引的访问,以管理配置。
xpack.management.elasticsearch.cloud_auth
#使用Elasticsearch API密钥进行身份验证。请注意,此选项还需要使用SSL。API密钥格式为id:API_key,其中id和API_key由Elasticsearch创建API密钥API返回。
xpack.management.elasticsearch.api_key

6、监听Logstash配置

与所有Logstash管道一样,专用监视管道的目的是将事件发送到输出。在监控Logstash的情况下,输出始终是elasticsearch输出。但是,与普通的Logstash管道不同,输出通过xpack.monitoring.relasticsearch.*设置在logstash.yml设置文件中配置。

#是否开启监控,默认为false
xpack.monitoring.enabled
#配置ES地址
xpack.monitoring.elasticsearch.hosts
#连接ES的账号
xpack.monitoring.elasticsearch.username
#连接ES的密码
xpack.monitoring.elasticsearch.password
 
##如果在生产Elasticsearch集群上启用了SSL/TLS,请指定将用于验证集群中节点身份的受信任CA证书。
#要将CA证书添加到Logstash节点的受信任证书,可以使用certificate_authority设置指定PEM编码证书的位置
xpack.monitoring.elasticsearch.ssl.certificate_authority
#要添加CA而不将其加载到磁盘上,可以使用CA_trusted_fingerprint设置指定DER格式CA的十六进制编码SHA 256指纹
xpack.monitoring.elasticsearch.ssl.ca_trusted_fingerprint
 
##或者,您可以使用信任库(包含证书的Java密钥库文件)配置受信任的证书
#证书路径
xpack.monitoring.elasticsearch.ssl.truststore.path
#证书密码
xpack.monitoring.elasticsearch.ssl.truststore.password
 
##此外,还可以选择使用密钥库(包含证书的Java密钥库文件)设置客户端证书
#证书路径
xpack.monitoring.elasticsearch.ssl.keystore.path
#证书密码
xpack.monitoring.elasticsearch.ssl.keystore.password
 
#将sniffing设置为true,以启用对Elasticsearch集群的其他节点的发现。默认为false
xpack.monitoring.elasticsearch.sniffing

评论

暂无

添加新评论