HTTP 和 Mimir 集成

借助 Telegraf(由 InfluxData 构建的开源数据连接器),实现强大的性能和轻松集成。

info

这不是实时大规模查询的推荐配置。为了实现查询和压缩优化、高速摄取和高可用性,您可能需要考虑HTTP 和 InfluxDB

50 亿+

Telegraf 下载量

#1

时间序列数据库
来源:DB Engines

10 亿+

InfluxDB 下载量

2,800+

贡献者

目录

强大的性能,无限的扩展性

收集、组织和处理大量高速数据。当您将任何数据视为时间序列数据时,它都更有价值。借助 InfluxDB,由 Telegraf 构建的排名第一的时间序列平台,可随之扩展。

查看入门方法

输入和输出集成概述

HTTP 插件允许从指定的 HTTP 端点收集指标,处理各种数据格式和身份验证方法。

此插件使用 HTTP 将 Telegraf 指标直接发送到 Grafana 的 Mimir 数据库,为 Prometheus 兼容指标提供可扩展且高效的长期存储和分析。

集成详情

HTTP

HTTP 插件从一个或多个 HTTP(S) 端点收集指标,这些端点应具有以受支持的输入数据格式之一格式化的指标。它还支持来自密钥存储的密钥,用于各种身份验证选项,并包括全局支持的配置设置。

Mimir

Grafana Mimir 支持 Prometheus Remote Write 协议,使 Telegraf 收集的指标能够有效地摄取到 Mimir 集群中,以实现大规模、长期存储。此集成利用 Prometheus 的成熟标准,允许用户将 Telegraf 广泛的数据收集功能与 Mimir 的高级功能相结合,例如查询联邦、多租户、高可用性和经济高效的存储。Grafana Mimir 的架构经过优化,可以处理大量指标数据并提供快速查询响应,使其成为复杂监控环境和分布式系统的理想选择。

配置

HTTP

[[inputs.http]]
  ## One or more URLs from which to read formatted metrics.
  urls = [
    "http://localhost/metrics",
    "http+unix:///run/user/420/podman/podman.sock:/d/v4.0.0/libpod/pods/json"
  ]

  ## HTTP method
  # method = "GET"

  ## Optional HTTP headers
  # headers = {"X-Special-Header" = "Special-Value"}

  ## HTTP entity-body to send with POST/PUT requests.
  # body = ""

  ## HTTP Content-Encoding for write request body, can be set to "gzip" to
  ## compress body or "identity" to apply no encoding.
  # content_encoding = "identity"

  ## Optional Bearer token settings to use for the API calls.
  ## Use either the token itself or the token file if you need a token.
  # token = "eyJhbGc...Qssw5c"
  # token_file = "/path/to/file"

  ## Optional HTTP Basic Auth Credentials
  # username = "username"
  # password = "pa$$word"

  ## OAuth2 Client Credentials. The options 'client_id', 'client_secret', and 'token_url' are required to use OAuth2.
  # client_id = "clientid"
  # client_secret = "secret"
  # token_url = "https://indentityprovider/oauth2/v1/token"
  # scopes = ["urn:opc:idm:__myscopes__"]

  ## HTTP Proxy support
  # use_system_proxy = false
  # http_proxy_url = ""

  ## Optional TLS Config
  ## Set to true/false to enforce TLS being enabled/disabled. If not set,
  ## enable TLS only if any of the other options are specified.
  # tls_enable =
  ## Trusted root certificates for server
  # tls_ca = "/path/to/cafile"
  ## Used for TLS client certificate authentication
  # tls_cert = "/path/to/certfile"
  ## Used for TLS client certificate authentication
  # tls_key = "/path/to/keyfile"
  ## Password for the key file if it is encrypted
  # tls_key_pwd = ""
  ## Send the specified TLS server name via SNI
  # tls_server_name = "kubernetes.example.com"
  ## Minimal TLS version to accept by the client
  # tls_min_version = "TLS12"
  ## List of ciphers to accept, by default all secure ciphers will be accepted
  ## See https://pkg.go.dev/crypto/tls#pkg-constants for supported values.
  ## Use "all", "secure" and "insecure" to add all support ciphers, secure
  ## suites or insecure suites respectively.
  # tls_cipher_suites = ["secure"]
  ## Renegotiation method, "never", "once" or "freely"
  # tls_renegotiation_method = "never"
  ## Use TLS but skip chain & host verification
  # insecure_skip_verify = false

  ## Optional Cookie authentication
  # cookie_auth_url = "https://localhost/authMe"
  # cookie_auth_method = "POST"
  # cookie_auth_username = "username"
  # cookie_auth_password = "pa$$word"
  # cookie_auth_headers = { Content-Type = "application/json", X-MY-HEADER = "hello" }
  # cookie_auth_body = '{"username": "user", "password": "pa$$word", "authenticate": "me"}'
  ## cookie_auth_renewal not set or set to "0" will auth once and never renew the cookie
  # cookie_auth_renewal = "5m"

  ## Amount of time allowed to complete the HTTP request
  # timeout = "5s"

  ## List of success status codes
  # success_status_codes = [200]

  ## Data format to consume.
  ## Each data format has its own unique set of configuration options, read
  ## more about them here:
  ## https://github.com/influxdata/telegraf/blob/master/docs/DATA_FORMATS_INPUT.md
  # data_format = "influx"

Mimir

[[outputs.http]]
  url = "http://data-load-balancer-backend-1:9009/api/v1/push"
  data_format = "prometheusremotewrite"
  username = "*****"
  password = "******"
  [outputs.http.headers]
     Content-Type = "application/x-protobuf"
     Content-Encoding = "snappy"
     X-Scope-OrgID = "****"

输入和输出集成示例

HTTP

  1. 从本地主机收集指标:该插件可以从 HTTP 端点(如 http://localhost/metrics)获取指标,从而实现简单的本地监控。
  2. 使用 Unix 域套接字:您可以使用 http+unix 方案指定从 Unix 域套接字上的服务收集指标,例如,http+unix:///path/to/service.sock:/api/endpoint

Mimir

  1. 企业级 Kubernetes 监控:将 Telegraf 与 Grafana Mimir 集成,以企业级规模从 Kubernetes 集群流式传输指标。这增强了跨数百个集群的全面可见性、改进的资源分配和主动故障排除,利用了 Mimir 的水平可扩展性和高可用性。

  2. 多租户 SaaS 应用程序可观测性:使用此插件将来自不同 SaaS 租户的指标集中到 Grafana Mimir 中,从而实现租户隔离和基于资源使用情况的准确计费。这种方法提供了可靠的可观测性、高效的成本管理和安全的多租户支持。

  3. 全球边缘网络性能跟踪:将来自全球分布式边缘服务器的延迟和可用性指标流式传输到 Grafana Mimir。组织可以快速识别性能下降或中断,利用 Mimir 的快速查询功能来确保最佳的服务可靠性和用户体验。

  4. 高容量微服务的实时分析:在高容量微服务架构中实施 Telegraf 指标收集,将数据馈送到 Grafana Mimir 以进行实时分析和异常检测。Mimir 强大的查询功能使团队能够检测异常并快速响应,从而保持高服务可用性和性能。

反馈

感谢您成为我们社区的一份子!如果您有任何一般性反馈或在这些页面上发现任何错误,我们欢迎并鼓励您提出意见。请在 InfluxDB 社区 Slack 中提交您的反馈。

强大的性能,无限的扩展性

收集、组织和处理大量高速数据。当您将任何数据视为时间序列数据时,它都更有价值。借助 InfluxDB,由 Telegraf 构建的排名第一的时间序列平台,可随之扩展。

查看入门方法

相关集成

HTTP 和 InfluxDB 集成

HTTP 插件从一个或多个 HTTP(S) 端点收集指标。它支持各种身份验证方法和数据格式的配置选项。

查看集成

Kafka 和 InfluxDB 集成

此插件从 Kafka 读取消息,并允许根据这些消息创建指标。它支持各种配置,包括不同的 Kafka 设置和消息处理选项。

查看集成

Kinesis 和 InfluxDB 集成

Kinesis 插件允许从 AWS Kinesis 流中读取指标。它支持多种输入数据格式,并提供使用 DynamoDB 进行检查点功能的特性,以实现可靠的消息处理。

查看集成