目录
强大的性能,无限的扩展能力
收集、组织和处理海量高速数据。 当您将任何数据视为时间序列数据时,它都更有价值。 使用 InfluxDB,排名第一的时间序列平台,旨在通过 Telegraf 进行扩展。
查看入门方法
输入和输出集成概述
此插件侦听通过 HTTP 从 AWS Data Firehose 以支持的数据格式发送的指标,提供实时数据摄取功能。
此插件使 Telegraf 能够使用 Prometheus remote write 协议将指标发送到 Cortex,从而实现无缝摄取到 Cortex 的可扩展、多租户时间序列存储中。
集成详情
AWS Data Firehose
AWS Data Firehose Telegraf 插件旨在通过 HTTP 从 AWS Data Firehose 接收指标。 此插件侦听各种格式的传入数据,并根据官方 AWS 文档中概述的请求-响应模式对其进行处理。 与以固定间隔运行的标准输入插件不同,此服务插件初始化一个保持活动状态的侦听器,等待传入的指标。 这允许从 AWS Data Firehose 实时摄取数据,使其适用于需要立即进行数据处理的场景。 主要功能包括指定服务地址、路径以及支持 TLS 连接以实现安全数据传输的能力。 此外,该插件还支持可选的身份验证密钥和自定义标签,从而增强了其在涉及数据流和处理的各种用例中的灵活性。
Cortex
借助 Telegraf 的 HTTP 输出插件和 prometheusremotewrite
数据格式,您可以将指标直接发送到 Cortex,Cortex 是 Prometheus 的水平可扩展长期存储后端。 Cortex 支持多租户,并使用 Prometheus protobuf 格式接受远程写入请求。 通过使用 Telegraf 作为收集代理,并使用 Remote Write 作为传输机制,组织可以将可观测性扩展到 Prometheus 本身不支持的来源(例如 Windows 主机、启用 SNMP 的设备或自定义应用程序指标),同时利用 Cortex 的高可用性和长期保留功能。
配置
AWS Data Firehose
[[inputs.firehose]]
## Address and port to host HTTP listener on
service_address = ":8080"
## Paths to listen to.
# paths = ["/telegraf"]
## maximum duration before timing out read of the request
# read_timeout = "5s"
## maximum duration before timing out write of the response
# write_timeout = "5s"
## Set one or more allowed client CA certificate file names to
## enable mutually authenticated TLS connections
# tls_allowed_cacerts = ["/etc/telegraf/clientca.pem"]
## Add service certificate and key
# tls_cert = "/etc/telegraf/cert.pem"
# tls_key = "/etc/telegraf/key.pem"
## Minimal TLS version accepted by the server
# tls_min_version = "TLS12"
## Optional access key to accept for authentication.
## AWS Data Firehose uses "x-amz-firehose-access-key" header to set the access key.
## If no access_key is provided (default), authentication is completely disabled and
## this plugin will accept all request ignoring the provided access-key in the request!
# access_key = "foobar"
## Optional setting to add parameters as tags
## If the http header "x-amz-firehose-common-attributes" is not present on the
## request, no corresponding tag will be added. The header value should be a
## json and should follow the schema as describe in the official documentation:
## https://docs.aws.amazon.com/firehose/latest/dev/httpdeliveryrequestresponse.html#requestformat
# parameter_tags = ["env"]
## Data format to consume.
## Each data format has its own unique set of configuration options, read
## more about them here:
## https://github.com/influxdata/telegraf/blob/master/docs/DATA_FORMATS_INPUT.md
# data_format = "influx"
Cortex
[[outputs.http]]
## Cortex Remote Write endpoint
url = "http://cortex.example.com/api/v1/push"
## Use POST to send data
method = "POST"
## Send metrics using Prometheus remote write format
data_format = "prometheusremotewrite"
## Optional HTTP headers for authentication
# [outputs.http.headers]
# X-Scope-OrgID = "your-tenant-id"
# Authorization = "Bearer YOUR_API_TOKEN"
## Optional TLS configuration
# tls_ca = "/path/to/ca.pem"
# tls_cert = "/path/to/cert.pem"
# tls_key = "/path/to/key.pem"
# insecure_skip_verify = false
## Request timeout
timeout = "10s"
输入和输出集成示例
AWS Data Firehose
-
实时数据分析:使用 AWS Data Firehose 插件,组织可以将来自各种来源(例如应用程序日志或物联网设备)的实时数据直接流式传输到分析平台。 这使数据团队能够在生成传入数据时对其进行分析,从而根据最新的指标实现快速洞察和运营调整。
-
分析访问模式以进行优化:通过收集有关客户端如何通过 AWS Data Firehose 与应用程序交互的数据,企业可以深入了解用户行为。 这可以推动内容个性化策略或优化服务器架构,从而根据流量模式获得更好的性能。
-
自动化警报机制:通过此插件将 AWS Data Firehose 与警报系统集成,团队可以根据收集的特定指标设置自动化警报。 例如,如果输入数据中达到特定阈值,则警报可以触发运营团队调查潜在问题,以防问题升级。
Cortex
-
统一的多租户监控:使用 Telegraf 从不同团队或环境收集指标,并将它们推送到 Cortex,并带有单独的
X-Scope-OrgID
标头。 这实现了每个租户的隔离数据摄取和查询,非常适合托管服务和平台团队。 -
将 Prometheus 覆盖范围扩展到边缘设备:在边缘或物联网设备上部署 Telegraf 以收集系统指标,并将它们发送到集中的 Cortex 集群。 即使对于没有本地 Prometheus 抓取器的环境,这种方法也能确保一致的可观测性。
-
具有联合租户的全球服务可观测性:通过配置 Telegraf 代理将数据推送到区域 Cortex 集群(每个集群都标记有租户标识符)来聚合来自全球基础设施的指标。 Cortex 处理跨区域的重复数据删除和集中访问。
-
自定义应用程序遥测管道:通过 Telegraf 的
exec
或http
输入插件收集特定于应用程序的遥测数据,并将其转发到 Cortex。 这使 DevOps 团队能够以可扩展、查询高效的格式监控特定于应用程序的 KPI,同时保持按租户或服务逻辑分组的指标。
反馈
感谢您成为我们社区的一份子! 如果您有任何一般性反馈或在这些页面上发现任何错误,我们欢迎并鼓励您提出意见。 请在 InfluxDB 社区 Slack 中提交您的反馈。
强大的性能,无限的扩展能力
收集、组织和处理海量高速数据。 当您将任何数据视为时间序列数据时,它都更有价值。 使用 InfluxDB,排名第一的时间序列平台,旨在通过 Telegraf 进行扩展。
查看入门方法