LDAP 和 Sumo Logic 集成

强大的性能和简单的集成,由 InfluxData 构建的开源数据连接器 Telegraf 提供支持。

info

对于大规模实时查询,这不是推荐的配置。 为了进行查询和压缩优化、高速摄取和高可用性,您可能需要考虑LDAP 和 InfluxDB

50 亿+

Telegraf 下载量

#1

时序数据库
来源:DB Engines

10 亿+

InfluxDB 下载量

2,800+

贡献者

目录

强大的性能,无限的扩展能力

收集、组织和处理海量高速数据。 当您将任何数据视为时序数据时,它都更有价值。 借助 InfluxDB,这是 #1 的时序平台,旨在与 Telegraf 一起扩展。

查看入门方法

输入和输出集成概述

LDAP 插件从 LDAP 服务器(包括 OpenLDAP 和 389 Directory Server)收集监控指标。 此插件对于跟踪 LDAP 服务的性能和运行状况至关重要,使管理员能够深入了解其目录操作。

Sumo Logic 插件旨在方便将指标从 Telegraf 发送到 Sumo Logic 的 HTTP 源。 通过使用此插件,用户可以在 Sumo Logic 平台上分析其指标数据,从而利用各种输出数据格式。

集成详情

LDAP

此插件从 LDAP 服务器的监控后端收集指标,特别是来自 cn=Monitor 条目的指标。 它支持两种著名的 LDAP 实现:OpenLDAP 和 389 Directory Server (389ds)。 LDAP 插件专注于收集各种操作指标,使管理员能够实时监控性能、连接状态和服务器运行状况,这对于维护强大的目录服务至关重要。 通过允许可自定义的连接参数和安全配置(例如 TLS 支持),该插件确保符合安全和性能的最佳实践。 收集的指标有助于识别趋势、优化服务器配置以及与利益干系人执行服务级别协议。

Sumo Logic

此插件有助于将指标传输到 Sumo Logic 的 HTTP 源,并为 HTTP 消息采用指定的数据格式。 Telegraf(必须是 1.16.0 或更高版本)可以发送以多种格式编码的指标,包括 graphitecarbon2prometheus。 这些格式对应于 Sumo Logic 识别的不同内容类型,确保指标得到正确解释以进行分析。 与 Sumo Logic 集成使用户能够利用全面的分析平台,从而从其指标数据中获得丰富的可视化效果和见解。 该插件提供配置选项,例如设置 HTTP 指标源的 URL、选择数据格式以及指定超时和请求大小等附加参数,从而增强了数据监控工作流程的灵活性和控制力。

配置

LDAP

[[inputs.ldap]]
  ## Server to monitor
  ## The scheme determines the mode to use for connection with
  ##    ldap://...      -- unencrypted (non-TLS) connection
  ##    ldaps://...     -- TLS connection
  ##    starttls://...  --  StartTLS connection
  ## If no port is given, the default ports, 389 for ldap and starttls and
  ## 636 for ldaps, are used.
  server = "ldap://localhost"

  ## Server dialect, can be "openldap" or "389ds"
  # dialect = "openldap"

  # DN and password to bind with
  ## If bind_dn is empty an anonymous bind is performed.
  bind_dn = ""
  bind_password = ""

  ## Reverse the field names constructed from the monitoring DN
  # reverse_field_names = false

  ## Optional TLS Config
  ## Set to true/false to enforce TLS being enabled/disabled. If not set,
  ## enable TLS only if any of the other options are specified.
  # tls_enable =
  ## Trusted root certificates for server
  # tls_ca = "/path/to/cafile"
  ## Used for TLS client certificate authentication
  # tls_cert = "/path/to/certfile"
  ## Used for TLS client certificate authentication
  # tls_key = "/path/to/keyfile"
  ## Password for the key file if it is encrypted
  # tls_key_pwd = ""
  ## Send the specified TLS server name via SNI
  # tls_server_name = "kubernetes.example.com"
  ## Minimal TLS version to accept by the client
  # tls_min_version = "TLS12"
  ## List of ciphers to accept, by default all secure ciphers will be accepted
  ## See https://pkg.go.dev/crypto/tls#pkg-constants for supported values.
  ## Use "all", "secure" and "insecure" to add all support ciphers, secure
  ## suites or insecure suites respectively.
  # tls_cipher_suites = ["secure"]
  ## Renegotiation method, "never", "once" or "freely"
  # tls_renegotiation_method = "never"
  ## Use TLS but skip chain & host verification
  # insecure_skip_verify = false

Sumo Logic

[[outputs.sumologic]]
  ## Unique URL generated for your HTTP Metrics Source.
  ## This is the address to send metrics to.
  # url = "https://events.sumologic.net/receiver/v1/http/"

  ## Data format to be used for sending metrics.
  ## This will set the "Content-Type" header accordingly.
  ## Currently supported formats:
  ## * graphite - for Content-Type of application/vnd.sumologic.graphite
  ## * carbon2 - for Content-Type of application/vnd.sumologic.carbon2
  ## * prometheus - for Content-Type of application/vnd.sumologic.prometheus
  ##
  ## More information can be found at:
  ## https://help.sumologic.com/03Send-Data/Sources/02Sources-for-Hosted-Collectors/HTTP-Source/Upload-Metrics-to-an-HTTP-Source#content-type-headers-for-metrics
  ##
  ## NOTE:
  ## When unset, telegraf will by default use the influx serializer which is currently unsupported
  ## in HTTP Source.
  data_format = "carbon2"

  ## Timeout used for HTTP request
  # timeout = "5s"

  ## Max HTTP request body size in bytes before compression (if applied).
  ## By default 1MB is recommended.
  ## NOTE:
  ## Bear in mind that in some serializer a metric even though serialized to multiple
  ## lines cannot be split any further so setting this very low might not work
  ## as expected.
  # max_request_body_size = 1000000

  ## Additional, Sumo specific options.
  ## Full list can be found here:
  ## https://help.sumologic.com/03Send-Data/Sources/02Sources-for-Hosted-Collectors/HTTP-Source/Upload-Metrics-to-an-HTTP-Source#supported-http-headers

  ## Desired source name.
  ## Useful if you want to override the source name configured for the source.
  # source_name = ""

  ## Desired host name.
  ## Useful if you want to override the source host configured for the source.
  # source_host = ""

  ## Desired source category.
  ## Useful if you want to override the source category configured for the source.
  # source_category = ""

  ## Comma-separated key=value list of dimensions to apply to every metric.
  ## Custom dimensions will allow you to query your metrics at a more granular level.
  # dimensions = ""
</code></pre>

输入和输出集成示例

LDAP

  1. 监控目录性能:使用 LDAP Telegraf 插件持续跟踪和分析已完成的操作数、启动的连接数和服务器响应时间。 通过可视化随时间推移的这些数据,管理员可以识别目录服务中的性能瓶颈,从而实现主动优化。

  2. 安全事件警报:将此插件与警报系统集成,以便在某些指标(例如 bind_security_errorsunauth_binds)超出预定义阈值时通知管理员。 此设置可以通过提供对潜在未授权访问尝试的实时洞察来增强安全监控。

  3. 容量规划:利用 LDAP 插件收集的指标来执行容量规划。 分析连接趋势、正在使用的最大线程数和操作统计信息,以预测未来的资源需求,确保 LDAP 服务器可以处理预期的峰值负载,而不会降低性能。

  4. 合规性和审计:使用通过此插件获得的操作指标来协助合规性审计。 通过定期检查 anonymous_bindssecurity_errors 等指标,组织可以确保其目录服务符合安全策略和法规要求。

Sumo Logic

  1. 实时系统监控仪表板:利用 Sumo Logic 插件将服务器的性能指标持续馈送到 Sumo Logic 仪表板中。 此设置使技术团队能够实时可视化系统运行状况和负载,从而通过详细的图表和指标更快地识别任何性能瓶颈或系统故障。

  2. 自动化警报系统:配置此插件以发送在 Sumo Logic 中触发警报的指标,以针对特定阈值,例如 CPU 使用率或内存消耗。 通过设置自动化警报,团队可以在问题升级为严重故障之前主动解决问题,从而显着缩短响应时间并提高整体系统可靠性。

  3. 跨系统指标聚合:跨不同环境(开发、测试、生产)集成多个 Telegraf 实例,并使用此插件将所有指标传输到中央 Sumo Logic 实例。 这种聚合实现了跨环境的全面分析,从而有助于在软件开发生命周期中实现更好的监控和更明智的决策。

  4. 具有维度跟踪的自定义指标:使用 Sumo Logic 插件发送自定义指标,其中包括识别基础设施各个方面的维度(例如,环境、服务类型)。 这种精细的跟踪允许进行更定制的分析,使您的团队能够剖析不同应用层或业务职能的性能。

反馈

感谢您成为我们社区的一份子! 如果您有任何一般性反馈或在这些页面上发现任何错误,我们欢迎并鼓励您提出意见。 请在 InfluxDB 社区 Slack 中提交您的反馈。

强大的性能,无限的扩展能力

收集、组织和处理海量高速数据。 当您将任何数据视为时序数据时,它都更有价值。 借助 InfluxDB,这是 #1 的时序平台,旨在与 Telegraf 一起扩展。

查看入门方法

相关集成

HTTP 和 InfluxDB 集成

HTTP 插件从一个或多个 HTTP(S) 端点收集指标。 它支持各种身份验证方法和数据格式的配置选项。

查看集成

Kafka 和 InfluxDB 集成

此插件从 Kafka 读取消息,并允许基于这些消息创建指标。 它支持各种配置,包括不同的 Kafka 设置和消息处理选项。

查看集成

Kinesis 和 InfluxDB 集成

Kinesis 插件允许从 AWS Kinesis 流中读取指标。 它支持多种输入数据格式,并提供带有 DynamoDB 的检查点功能,以实现可靠的消息处理。

查看集成