目录
强大的性能,无限的扩展能力
收集、组织和处理海量高速数据。当您将任何数据视为时间序列数据时,它都更有价值。InfluxDB 是排名第一的时间序列平台,旨在与 Telegraf 一起扩展。
查看入门方法
输入和输出集成概述
此插件通过与 Kubelet API 通信来捕获 Kubernetes Pod 和容器的指标。
Redis 插件使用户能够将 Telegraf 收集的指标直接发送到 Redis。此集成非常适合需要强大的时间序列数据存储和分析的应用程序。
集成详情
Kubernetes
Kubernetes 输入插件与 Kubelet API 接口,以收集在单个主机上运行的 Pod 和容器的指标,理想情况下,作为 Kubernetes 安装中的 DaemonSet 的一部分。通过在集群中的每个节点上运行,它从本地运行的 Kubelet 收集指标,确保数据反映环境的实时状态。作为一个快速发展的项目,Kubernetes 经常更新,此插件遵循主要云提供商支持的版本,在有限的时间跨度内保持跨多个版本的兼容性。需要特别注意的是潜在的高基数问题,这可能会给数据库带来负担;因此,建议用户实施过滤技术和保留策略,以有效管理此负载。配置选项提供了插件行为的灵活定制,以便无缝集成到不同的设置中,从而增强其在 Kubernetes 环境监控中的实用性。
Redis
Redis Telegraf 插件旨在将指标写入 RedisTimeSeries,这是一个专门用于时间序列数据的 Redis 数据库模块。此插件促进了 Telegraf 与 RedisTimeSeries 的集成,从而可以高效地存储和检索带时间戳的数据。借助 RedisTimeSeries,用户可以利用增强的功能来管理时间序列数据,包括聚合视图和范围查询。该插件提供了各种配置选项,以实现安全连接到 Redis 数据库所需的灵活性,包括对身份验证、超时、数据类型转换和 TLS 配置的支持。底层技术利用了 Redis 的效率和可扩展性,使其成为高容量指标环境的绝佳选择,在这些环境中,实时处理至关重要。
配置
Kubernetes
[[inputs.kubernetes]]
## URL for the kubelet, if empty read metrics from all nodes in the cluster
url = "http://127.0.0.1:10255"
## Use bearer token for authorization. ('bearer_token' takes priority)
## If both of these are empty, we'll use the default serviceaccount:
## at: /var/run/secrets/kubernetes.io/serviceaccount/token
##
## To re-read the token at each interval, please use a file with the
## bearer_token option. If given a string, Telegraf will always use that
## token.
# bearer_token = "/var/run/secrets/kubernetes.io/serviceaccount/token"
## OR
# bearer_token_string = "abc_123"
## Kubernetes Node Metric Name
## The default Kubernetes node metric name (i.e. kubernetes_node) is the same
## for the kubernetes and kube_inventory plugins. To avoid conflicts, set this
## option to a different value.
# node_metric_name = "kubernetes_node"
## Pod labels to be added as tags. An empty array for both include and
## exclude will include all labels.
# label_include = []
# label_exclude = ["*"]
## Set response_timeout (default 5 seconds)
# response_timeout = "5s"
## Optional TLS Config
# tls_ca = /path/to/cafile
# tls_cert = /path/to/certfile
# tls_key = /path/to/keyfile
## Use TLS but skip chain & host verification
# insecure_skip_verify = false
Redis
[[outputs.redistimeseries]]
## The address of the RedisTimeSeries server.
address = "127.0.0.1:6379"
## Redis ACL credentials
# username = ""
# password = ""
# database = 0
## Timeout for operations such as ping or sending metrics
# timeout = "10s"
## Enable attempt to convert string fields to numeric values
## If "false" or in case the string value cannot be converted the string
## field will be dropped.
# convert_string_fields = true
## Optional TLS Config
# tls_ca = "/etc/telegraf/ca.pem"
# tls_cert = "/etc/telegraf/cert.pem"
# tls_key = "/etc/telegraf/key.pem"
# insecure_skip_verify = false
输入和输出集成示例
Kubernetes
-
动态资源分配监控:通过利用 Kubernetes 插件,团队可以为各种 Pod 和容器的资源使用模式设置警报。这种主动监控方法能够根据特定阈值自动扩展资源——有助于优化性能,同时最大限度地减少高峰使用期间的成本。
-
多租户资源隔离分析:使用 Kubernetes 的组织可以利用此插件跟踪每个命名空间的资源消耗。在多租户场景中,了解不同团队的资源分配和使用情况对于确保公平访问和性能保证至关重要,从而带来更好的资源管理策略。
-
实时健康仪表板:将 Kubernetes 插件捕获的数据集成到 Grafana 等可视化工具中,以创建实时仪表板。这些仪表板提供了对 Kubernetes 环境整体健康状况和性能的深入了解,使团队能够快速识别和纠正跨集群、Pod 和容器的问题。
-
自动化事件响应工作流:通过将 Kubernetes 插件与警报管理系统相结合,团队可以根据实时指标自动化事件响应程序。如果 Pod 的资源使用量超过预定义限制,自动化工作流可以触发补救措施,例如重启 Pod 或重新分配资源——所有这些都有助于提高系统弹性。
Redis
-
监控物联网传感器数据:利用 Redis Telegraf 插件实时收集和存储来自物联网传感器的数据。通过将插件连接到 RedisTimeSeries 数据库,用户可以分析温度、湿度或其他环境因素的趋势。有效查询历史传感器数据的能力将有助于预测性维护并帮助资源管理。
-
金融市场数据聚合:使用此插件跟踪和存储来自各种来源的时间敏感型金融数据。通过将指标发送到 Redis,金融机构可以聚合和分析市场趋势或价格随时间的变化,从而为他们提供从可靠的时间序列分析中获得的可操作的见解。
-
应用程序性能监控 (APM):实施 Redis 插件以收集应用程序性能指标,例如响应时间和 CPU 使用率。用户可以使用 RedisTimeSeries 可视化其应用程序随时间的性能,从而使他们能够快速识别瓶颈并优化资源分配。
-
能源消耗跟踪:利用此插件来监控建筑物随时间的能源使用情况。通过与智能电表集成并将数据发送到 RedisTimeSeries,市政当局或企业可以分析能源消耗模式,从而帮助实施节能措施和可持续发展实践。
反馈
感谢您成为我们社区的一份子!如果您有任何一般性反馈或在这些页面上发现任何错误,我们欢迎并鼓励您提出意见。请在 InfluxDB 社区 Slack 中提交您的反馈。
强大的性能,无限的扩展能力
收集、组织和处理海量高速数据。当您将任何数据视为时间序列数据时,它都更有价值。InfluxDB 是排名第一的时间序列平台,旨在与 Telegraf 一起扩展。
查看入门方法