目录
输入和输出集成概述
此插件通过与 Kubelet API 通信来捕获 Kubernetes Pod 和容器的指标。
Azure Data Explorer 插件允许指标收集与 Azure Data Explorer 集成,使用户能够高效地分析和查询其遥测数据。借助此插件,用户可以配置摄取设置以满足其需求,并利用 Azure 强大的分析功能。
集成详情
Kubernetes
Kubernetes 输入插件与 Kubelet API 接口,以收集在单个主机上运行的 Pod 和容器的指标,理想情况下作为 Kubernetes 安装中 DaemonSet 的一部分。通过在集群内的每个节点上运行,它从本地运行的 Kubelet 收集指标,确保数据反映环境的实时状态。作为一个快速发展的项目,Kubernetes 频繁更新,此插件遵循主要云提供商支持的版本,在有限的时间范围内保持跨多个版本的兼容性。要特别考虑潜在的高基数序列,这可能会给数据库带来负担;因此,建议用户实施过滤技术和保留策略来有效管理此负载。配置选项提供了插件行为的灵活自定义,以无缝集成到不同的设置中,从而增强其在监控 Kubernetes 环境中的实用性。
Azure 数据资源管理器
Azure Data Explorer 插件允许用户将从各种 Telegraf 输入插件收集的指标、日志和时序数据写入 Azure Data Explorer、Azure Synapse 和 Fabric 中的 Real-Time Analytics。此集成充当桥梁,使应用程序和服务能够有效地监控其性能指标或日志。Azure Data Explorer 针对大量不同数据类型的分析进行了优化,使其成为云环境中实时分析和监控解决方案的绝佳选择。该插件使用户能够根据其需求配置指标摄取,动态定义表架构,并设置各种摄取方法,同时保留数据库操作所需的角色和权限方面的灵活性。这为利用云服务的现代应用程序支持可扩展且安全的监控设置。
配置
Kubernetes
[[inputs.kubernetes]]
## URL for the kubelet, if empty read metrics from all nodes in the cluster
url = "http://127.0.0.1:10255"
## Use bearer token for authorization. ('bearer_token' takes priority)
## If both of these are empty, we'll use the default serviceaccount:
## at: /var/run/secrets/kubernetes.io/serviceaccount/token
##
## To re-read the token at each interval, please use a file with the
## bearer_token option. If given a string, Telegraf will always use that
## token.
# bearer_token = "/var/run/secrets/kubernetes.io/serviceaccount/token"
## OR
# bearer_token_string = "abc_123"
## Kubernetes Node Metric Name
## The default Kubernetes node metric name (i.e. kubernetes_node) is the same
## for the kubernetes and kube_inventory plugins. To avoid conflicts, set this
## option to a different value.
# node_metric_name = "kubernetes_node"
## Pod labels to be added as tags. An empty array for both include and
## exclude will include all labels.
# label_include = []
# label_exclude = ["*"]
## Set response_timeout (default 5 seconds)
# response_timeout = "5s"
## Optional TLS Config
# tls_ca = /path/to/cafile
# tls_cert = /path/to/certfile
# tls_key = /path/to/keyfile
## Use TLS but skip chain & host verification
# insecure_skip_verify = false
Azure 数据资源管理器
[[outputs.azure_data_explorer]]
## The URI property of the Azure Data Explorer resource on Azure
## ex: endpoint_url = https://myadxresource.australiasoutheast.kusto.windows.net
endpoint_url = ""
## The Azure Data Explorer database that the metrics will be ingested into.
## The plugin will NOT generate this database automatically, it's expected that this database already exists before ingestion.
## ex: "exampledatabase"
database = ""
## Timeout for Azure Data Explorer operations
# timeout = "20s"
## Type of metrics grouping used when pushing to Azure Data Explorer.
## Default is "TablePerMetric" for one table per different metric.
## For more information, please check the plugin README.
# metrics_grouping_type = "TablePerMetric"
## Name of the single table to store all the metrics (Only needed if metrics_grouping_type is "SingleTable").
# table_name = ""
## Creates tables and relevant mapping if set to true(default).
## Skips table and mapping creation if set to false, this is useful for running Telegraf with the lowest possible permissions i.e. table ingestor role.
# create_tables = true
## Ingestion method to use.
## Available options are
## - managed -- streaming ingestion with fallback to batched ingestion or the "queued" method below
## - queued -- queue up metrics data and process sequentially
# ingestion_type = "queued"
输入和输出集成示例
Kubernetes
-
动态资源分配监控:通过利用 Kubernetes 插件,团队可以为跨各种 Pod 和容器的资源使用模式设置警报。这种主动监控方法能够根据特定阈值自动扩展资源——有助于优化性能,同时最大限度地降低高峰使用期间的成本。
-
多租户资源隔离分析:使用 Kubernetes 的组织可以利用此插件来跟踪每个命名空间的资源消耗。在多租户场景中,了解不同团队之间的资源分配和使用情况对于确保公平访问和性能保证至关重要,从而带来更好的资源管理策略。
-
实时健康仪表板:将 Kubernetes 插件捕获的数据集成到 Grafana 等可视化工具中,以创建实时仪表板。这些仪表板提供对 Kubernetes 环境整体健康状况和性能的深入了解,使团队能够快速识别和纠正跨集群、Pod 和容器的问题。
-
自动化事件响应工作流程:通过将 Kubernetes 插件与警报管理系统相结合,团队可以根据实时指标自动化事件响应程序。如果 Pod 的资源使用量超过预定义限制,则自动化工作流程可以触发补救措施,例如重启 Pod 或重新分配资源——所有这些都有助于提高系统弹性。
Azure 数据资源管理器
-
实时监控仪表板:通过使用此插件将来自各种服务的指标集成到 Azure Data Explorer 中,组织可以构建反映实时性能指标的综合仪表板。这使团队能够主动响应性能问题并立即优化系统健康状况。
-
集中式日志管理:利用 Azure Data Explorer 来整合来自多个应用程序和服务的日志。通过利用该插件,组织可以简化其日志分析流程,从而更轻松地搜索、过滤和从随着时间推移积累的历史数据中获取见解。
-
数据驱动的警报系统:通过根据通过此插件发送的指标配置警报来增强监控功能。组织可以设置阈值并自动化事件响应,从而显着减少停机时间并提高关键操作的可靠性。
-
机器学习模型训练:通过利用发送到 Azure Data Explorer 的数据,组织可以执行大规模分析并准备数据以供输入到机器学习模型中。此插件支持构建数据结构,这些数据结构随后可用于预测分析,从而提高决策能力。
反馈
感谢您成为我们社区的一份子!如果您有任何一般性反馈或在这些页面上发现了任何错误,我们欢迎并鼓励您提出意见。请在 InfluxDB 社区 Slack 中提交您的反馈。