Webhooks 和 Splunk 集成

强大的性能和简单的集成,由 InfluxData 构建的开源数据连接器 Telegraf 提供支持。

info

对于大规模实时查询,这不是推荐的配置。 为了查询和压缩优化、高速摄取和高可用性,您可能需要考虑Webhooks 和 InfluxDB

50 亿+

Telegraf 下载量

#1

时间序列数据库
来源:DB Engines

10 亿+

InfluxDB 下载量

2,800+

贡献者

目录

强大的性能,无限的扩展

收集、组织和处理海量高速数据。 当您将任何数据视为时间序列数据时,它都会更有价值。 借助 InfluxDB,这个排名第一的时间序列平台旨在通过 Telegraf 进行扩展。

查看入门方法

输入和输出集成概述

Webhooks 插件允许 Telegraf 通过 Webhooks 接收和处理来自各种外部服务的 HTTP 请求。 此插件使用户能够收集实时指标和事件,并将它们集成到其监控解决方案中。

此输出插件有助于将 Telegraf 收集的指标直接流式传输到 Splunk 中,通过 HTTP Event Collector,从而轻松与 Splunk 强大的分析平台集成。

集成详情

Webhooks

此 Telegraf 插件旨在充当 Webhook 侦听器,通过启动 HTTP 服务器来注册多个 Webhook 端点。 它提供了一种通过捕获发送到已定义路径的 HTTP 请求来收集来自各种服务的事件的方法。 可以为每个服务配置其特定的身份验证详细信息和请求处理选项。 该插件的突出之处在于允许与任何 Telegraf 输出插件集成,使其成为事件驱动型架构的多功能选择。 通过有效接收事件,它为实时监控和响应系统开启了可能性,这对于需要即时事件处理和处理的现代应用程序至关重要。

Splunk

使用 Telegraf 可以轻松地从许多不同的来源收集和聚合指标,并将它们发送到 Splunk。 通过利用 HTTP 输出插件和专门的 Splunk 指标序列化器,此配置确保了将数据高效地摄取到 Splunk 的指标索引中。 HEC 是 Splunk 提供的一种高级机制,旨在通过 HTTP 或 HTTPS 可靠地大规模收集数据,为安全性、监控和分析工作负载提供关键功能。 Telegraf 与 Splunk HEC 的集成通过利用标准 HTTP 协议、内置身份验证和结构化数据序列化来简化操作,从而优化指标摄取并实现即时可操作的见解。

配置

Webhooks

[[inputs.webhooks]]
  ## Address and port to host Webhook listener on
  service_address = ":1619"

  ## Maximum duration before timing out read of the request
  # read_timeout = "10s"
  ## Maximum duration before timing out write of the response
  # write_timeout = "10s"

  [inputs.webhooks.filestack]
    path = "/filestack"

    ## HTTP basic auth
    #username = ""
    #password = ""

  [inputs.webhooks.github]
    path = "/github"
    # secret = ""

    ## HTTP basic auth
    #username = ""
    #password = ""

  [inputs.webhooks.mandrill]
    path = "/mandrill"

    ## HTTP basic auth
    #username = ""
    #password = ""

  [inputs.webhooks.rollbar]
    path = "/rollbar"

    ## HTTP basic auth
    #username = ""
    #password = ""

  [inputs.webhooks.papertrail]
    path = "/papertrail"

    ## HTTP basic auth
    #username = ""
    #password = ""

  [inputs.webhooks.particle]
    path = "/particle"

    ## HTTP basic auth
    #username = ""
    #password = ""

  [inputs.webhooks.artifactory]
    path = "/artifactory"

Splunk

[[outputs.http]]
  ## Splunk HTTP Event Collector endpoint
  url = "https://splunk.example.com:8088/services/collector"

  ## HTTP method to use
  method = "POST"

  ## Splunk authentication token
  headers = {"Authorization" = "Splunk YOUR_SPLUNK_HEC_TOKEN"}

  ## Serializer for formatting metrics specifically for Splunk
  data_format = "splunkmetric"

  ## Optional parameters
  # timeout = "5s"
  # insecure_skip_verify = false
  # tls_ca = "/path/to/ca.pem"
  # tls_cert = "/path/to/cert.pem"
  # tls_key = "/path/to/key.pem"

输入和输出集成示例

Webhooks

  1. 来自 Github 的实时通知:将 Webhooks Input Plugin 与 Github 集成,以接收有关事件(如拉取请求、提交和问题)的实时通知。 这使开发团队可以立即监控其存储库中的关键更改和更新,从而改善协作和响应时间。

  2. 使用 Rollbar 进行自动化警报:使用此插件侦听从 Rollbar 报告的错误,使团队能够对生产中的错误和问题做出快速反应。 通过将这些警报转发到集中式监控系统,团队可以根据严重性确定响应的优先级,并防止停机时间升级。

  3. 来自 Filestack 的性能监控:捕获来自 Filestack 的事件以跟踪文件上传、转换和错误。 此设置有助于企业了解用户与文件管理流程的交互,优化工作流程,并确保文件服务的高可用性。

  4. 使用 Papertrail 进行集中式日志记录:将通过 Webhooks 发送到 Papertrail 的所有日志关联起来,使您可以整合日志记录策略。 通过实时日志转发,团队可以有效地分析趋势和异常情况,确保他们保持对关键操作的可见性。

Splunk

  1. 实时安全分析:利用此插件将来自各种应用程序的安全相关指标实时流式传输到 Splunk 中。 组织可以通过关联跨系统的数据流来立即检测威胁,从而显著缩短检测和响应时间。

  2. 多云基础设施监控:集成 Telegraf 以将来自多云环境的指标直接整合到 Splunk 中,从而实现全面的可见性和运营情报。 这种统一的监控使团队能够快速检测性能问题并简化云资源管理。

  3. 动态容量规划:部署该插件以将来自容器编排平台(如 Kubernetes)的资源指标持续推送到 Splunk 中。 通过利用 Splunk 的分析功能,团队可以自动化预测性扩展和资源分配,避免资源瓶颈并最大限度地降低成本。

  4. 自动化事件响应工作流:将此插件与 Splunk 的警报系统结合使用,以创建自动化事件响应工作流。 Telegraf 收集的指标会触发实时警报和自动化修复脚本,从而确保快速解决问题并保持高系统可用性。

反馈

感谢您成为我们社区的一份子! 如果您有任何一般性反馈或在这些页面上发现任何错误,我们欢迎并鼓励您提供意见。 请在 InfluxDB 社区 Slack 中提交您的反馈。

强大的性能,无限的扩展

收集、组织和处理海量高速数据。 当您将任何数据视为时间序列数据时,它都会更有价值。 借助 InfluxDB,这个排名第一的时间序列平台旨在通过 Telegraf 进行扩展。

查看入门方法

相关集成

HTTP 和 InfluxDB 集成

HTTP 插件从一个或多个 HTTP(S) 端点收集指标。 它支持各种身份验证方法和数据格式的配置选项。

查看集成

Kafka 和 InfluxDB 集成

此插件从 Kafka 读取消息,并允许基于这些消息创建指标。 它支持各种配置,包括不同的 Kafka 设置和消息处理选项。

查看集成

Kinesis 和 InfluxDB 集成

Kinesis 插件允许从 AWS Kinesis 流中读取指标。 它支持多种输入数据格式,并提供使用 DynamoDB 进行检查点操作的功能,以实现可靠的消息处理。

查看集成