目录
强大的性能,无限的扩展能力
收集、组织和处理大量高速数据。 当您将任何数据视为时序数据时,它都更有价值。 借助 InfluxDB,这是专为与 Telegraf 扩展而构建的排名第一的时序平台。
查看入门方法
输入和输出集成概述
此插件通过与 Kubelet API 通信来捕获 Kubernetes Pod 和容器的指标。
MongoDB Telegraf 插件使用户能够将指标发送到 MongoDB 数据库,自动管理时序集合。
集成详情
Kubernetes
Kubernetes 输入插件与 Kubelet API 接口,以收集单个主机上运行的 Pod 和容器的指标,理想情况下作为 Kubernetes 安装中守护程序集的一部分。 通过在集群中的每个节点上运行,它可以从本地运行的 kubelet 收集指标,确保数据反映环境的实时状态。 作为一个快速发展的项目,Kubernetes 经常更新,此插件遵循主要云提供商支持的版本,在有限的时间跨度内保持跨多个版本的兼容性。 充分考虑了可能出现的高基数序列,这可能会给数据库带来负担; 因此,建议用户实施过滤技术和保留策略来有效管理此负载。 配置选项提供了插件行为的灵活自定义,以便无缝集成到不同的设置中,从而增强其在监控 Kubernetes 环境中的实用性。
MongoDB
此插件将指标发送到 MongoDB,并与其时序功能无缝集成,允许在时序集合尚不存在时自动创建为时序集合。 它需要 MongoDB 5.0 或更高版本才能利用时序集合功能,这对于高效存储和查询基于时间的数据至关重要。 此插件通过确保所有相关指标都正确存储和组织在 MongoDB 中来增强监控功能,从而为用户提供利用 MongoDB 强大的查询和聚合功能进行时序分析的能力。
配置
Kubernetes
[[inputs.kubernetes]]
## URL for the kubelet, if empty read metrics from all nodes in the cluster
url = "http://127.0.0.1:10255"
## Use bearer token for authorization. ('bearer_token' takes priority)
## If both of these are empty, we'll use the default serviceaccount:
## at: /var/run/secrets/kubernetes.io/serviceaccount/token
##
## To re-read the token at each interval, please use a file with the
## bearer_token option. If given a string, Telegraf will always use that
## token.
# bearer_token = "/var/run/secrets/kubernetes.io/serviceaccount/token"
## OR
# bearer_token_string = "abc_123"
## Kubernetes Node Metric Name
## The default Kubernetes node metric name (i.e. kubernetes_node) is the same
## for the kubernetes and kube_inventory plugins. To avoid conflicts, set this
## option to a different value.
# node_metric_name = "kubernetes_node"
## Pod labels to be added as tags. An empty array for both include and
## exclude will include all labels.
# label_include = []
# label_exclude = ["*"]
## Set response_timeout (default 5 seconds)
# response_timeout = "5s"
## Optional TLS Config
# tls_ca = /path/to/cafile
# tls_cert = /path/to/certfile
# tls_key = /path/to/keyfile
## Use TLS but skip chain & host verification
# insecure_skip_verify = false
MongoDB
[[outputs.mongodb]]
# connection string examples for mongodb
dsn = "mongodb://localhost:27017"
# dsn = "mongodb://mongod1:27017,mongod2:27017,mongod3:27017/admin&replicaSet=myReplSet&w=1"
# overrides serverSelectionTimeoutMS in dsn if set
# timeout = "30s"
# default authentication, optional
# authentication = "NONE"
# for SCRAM-SHA-256 authentication
# authentication = "SCRAM"
# username = "root"
# password = "***"
# for x509 certificate authentication
# authentication = "X509"
# tls_ca = "ca.pem"
# tls_key = "client.pem"
# # tls_key_pwd = "changeme" # required for encrypted tls_key
# insecure_skip_verify = false
# database to store measurements and time series collections
# database = "telegraf"
# granularity can be seconds, minutes, or hours.
# configuring this value will be based on your input collection frequency.
# see https://docs.mongodb.com/manual/core/timeseries-collections/#create-a-time-series-collection
# granularity = "seconds"
# optionally set a TTL to automatically expire documents from the measurement collections.
# ttl = "360h"
输入和输出集成示例
Kubernetes
-
动态资源分配监控:通过利用 Kubernetes 插件,团队可以为各种 Pod 和容器的资源使用模式设置警报。 这种主动监控方法支持根据特定阈值自动扩展资源,从而帮助优化性能,同时最大限度地降低高峰使用期间的成本。
-
多租户资源隔离分析:使用 Kubernetes 的组织可以利用此插件来跟踪每个命名空间的资源消耗。 在多租户场景中,了解不同团队之间的资源分配和使用情况对于确保公平访问和性能保证至关重要,从而带来更好的资源管理策略。
-
实时健康状况仪表板:将 Kubernetes 插件捕获的数据集成到 Grafana 等可视化工具中,以创建实时仪表板。 这些仪表板提供对 Kubernetes 环境总体健康状况和性能的洞察,使团队能够快速识别和纠正跨集群、Pod 和容器的问题。
-
自动化事件响应工作流程:通过将 Kubernetes 插件与警报管理系统相结合,团队可以根据实时指标自动化事件响应程序。 如果 Pod 的资源使用量超过预定义的限制,自动化工作流程可以触发补救措施,例如重新启动 Pod 或重新分配资源,所有这些都有助于提高系统弹性。
MongoDB
-
物联网设备的 MongoDB 动态日志记录:利用此插件实时收集和存储来自大量物联网设备的指标。 通过将设备日志直接发送到 MongoDB,您可以创建一个集中式数据库,以便轻松访问和查询健康状况指标和性能数据,从而根据历史趋势实现主动维护和故障排除。
-
Web 流量的时序分析:使用 MongoDB Telegraf 插件收集和分析一段时间内的 Web 流量指标。 此应用程序可以帮助您了解高峰使用时间、用户交互和行为模式,从而指导营销策略和基础设施扩展决策,以改善用户体验。
-
自动化监控和警报系统:将 MongoDB 插件集成到跟踪应用程序性能指标的自动化监控系统中。 借助时序集合,您可以根据特定阈值设置警报,使您的团队能够在潜在问题影响用户之前做出响应。 这种主动管理可以提高服务可靠性和整体性能。
-
指标存储中的数据保留和 TTL 管理:利用 MongoDB 集合中文档的 TTL 功能来自动过期过时的指标。 这对于仅最近的性能数据相关的环境尤其有用,可防止您的 MongoDB 数据库因旧指标而变得混乱,并确保高效的数据管理。
反馈
感谢您成为我们社区的一份子! 如果您有任何一般性反馈或在这些页面上发现任何错误,我们欢迎并鼓励您提出意见。 请在InfluxDB 社区 Slack 中提交您的反馈。
强大的性能,无限的扩展能力
收集、组织和处理大量高速数据。 当您将任何数据视为时序数据时,它都更有价值。 借助 InfluxDB,这是专为与 Telegraf 扩展而构建的排名第一的时序平台。
查看入门方法