目录
强大的性能,无限的扩展能力
收集、组织和处理海量高速数据。当您将任何数据视为时间序列数据时,它会更有价值。InfluxDB 是排名第一的时间序列平台,旨在通过 Telegraf 进行扩展。
查看入门方法
输入和输出集成概览
Google Cloud Storage 插件从指定的 Google Cloud Storage 存储桶收集指标,从而深入了解存储使用情况和性能。
InfluxDB 插件将指标写入 InfluxDB HTTP 服务,从而可以高效地存储和检索时间序列数据。
集成详情
Google Cloud Storage
Google Cloud Storage Telegraf 插件支持从指定的 Google Cloud Storage 存储桶收集指标。随着组织越来越依赖云存储解决方案进行数据管理,监控这些资源的性能和利用率的能力变得至关重要。此插件对于跟踪存储使用方式、了解数据模式以及确保运营效率特别有用。通过与 Google Cloud Storage API 集成,用户可以从其云环境中收集见解,并将指标直接馈送到监控系统以进行进一步分析。该插件支持各种配置选项,使用户可以根据其特定需求自定义数据收集过程。
InfluxDB
InfluxDB Telegraf 插件用于将指标发送到 InfluxDB HTTP API,从而以结构化方式促进时间序列数据的存储和查询。该插件与 InfluxDB 无缝集成,提供基于令牌的身份验证以及对多个 InfluxDB 集群节点的支持等基本功能,从而确保可靠且可扩展的数据摄取。通过其可配置性,用户可以指定组织、目标存储桶和 HTTP 特定设置等选项,从而灵活地定制数据的发送和存储方式。该插件还支持敏感数据的密钥管理,从而增强了生产环境中的安全性。在现代可观测性堆栈中,实时分析和时间序列数据存储至关重要,该插件尤其有利。
配置
Google Cloud Storage
[[inputs.google_cloud_storage]]
bucket = "my-bucket"
# key_prefix = "my-bucket"
offset_key = "offset_key"
objects_per_iteration = 10
data_format = "influx"
# credentials_file = "path/to/my/creds.json"
InfluxDB
[[outputs.influxdb]]
## The full HTTP or UDP URL for your InfluxDB instance.
##
## Multiple URLs can be specified for a single cluster, only ONE of the
## urls will be written to each interval.
# urls = ["unix:///var/run/influxdb.sock"]
# urls = ["udp://127.0.0.1:8089"]
# urls = ["http://127.0.0.1:8086"]
## Local address to bind when connecting to the server
## If empty or not set, the local address is automatically chosen.
# local_address = ""
## The target database for metrics; will be created as needed.
## For UDP url endpoint database needs to be configured on server side.
# database = "telegraf"
## The value of this tag will be used to determine the database. If this
## tag is not set the 'database' option is used as the default.
# database_tag = ""
## If true, the 'database_tag' will not be included in the written metric.
# exclude_database_tag = false
## If true, no CREATE DATABASE queries will be sent. Set to true when using
## Telegraf with a user without permissions to create databases or when the
## database already exists.
# skip_database_creation = false
## Name of existing retention policy to write to. Empty string writes to
## the default retention policy. Only takes effect when using HTTP.
# retention_policy = ""
## The value of this tag will be used to determine the retention policy. If this
## tag is not set the 'retention_policy' option is used as the default.
# retention_policy_tag = ""
## If true, the 'retention_policy_tag' will not be included in the written metric.
# exclude_retention_policy_tag = false
## Write consistency (clusters only), can be: "any", "one", "quorum", "all".
## Only takes effect when using HTTP.
# write_consistency = "any"
## Timeout for HTTP messages.
# timeout = "5s"
## HTTP Basic Auth
# username = "telegraf"
# password = "metricsmetricsmetricsmetrics"
## HTTP User-Agent
# user_agent = "telegraf"
## UDP payload size is the maximum packet size to send.
# udp_payload = "512B"
## Optional TLS Config for use on HTTP connections.
# tls_ca = "/etc/telegraf/ca.pem"
# tls_cert = "/etc/telegraf/cert.pem"
# tls_key = "/etc/telegraf/key.pem"
## Use TLS but skip chain & host verification
# insecure_skip_verify = false
## HTTP Proxy override, if unset values the standard proxy environment
## variables are consulted to determine which proxy, if any, should be used.
# http_proxy = "http://corporate.proxy:3128"
## Additional HTTP headers
# http_headers = {"X-Special-Header" = "Special-Value"}
## HTTP Content-Encoding for write request body, can be set to "gzip" to
## compress body or "identity" to apply no encoding.
# content_encoding = "gzip"
## When true, Telegraf will output unsigned integers as unsigned values,
## i.e.: "42u". You will need a version of InfluxDB supporting unsigned
## integer values. Enabling this option will result in field type errors if
## existing data has been written.
# influx_uint_support = false
## When true, Telegraf will omit the timestamp on data to allow InfluxDB
## to set the timestamp of the data during ingestion. This is generally NOT
## what you want as it can lead to data points captured at different times
## getting omitted due to similar data.
# influx_omit_timestamp = false
输入和输出集成示例
Google Cloud Storage
-
自动化备份监控:利用 Google Cloud Storage 插件定期监控存储在 Cloud Storage 存储桶中的备份文件的状态。通过配置插件以跟踪文件指标,组织可以在备份大小偏离预期模式时自动发出警报,从而确保数据保护流程正常运行并及时解决任何异常情况。
-
成本优化洞察:将此插件集成到成本管理工具中,以分析 Cloud Storage 的使用模式。通过收集有关文件大小和访问频率的指标,团队可以优化其存储解决方案,并就数据保留策略做出明智的决策,从而有可能降低不必要的存储成本并改进资源分配。
-
合规性和审计:使用该插件生成有助于验证存储在 Google Cloud Storage 中的数据合规性的指标。通过提供有关数据访问和存储使用情况的详细见解,组织可以确保遵守法规要求,从而帮助进行审计并符合数据治理的最佳实践。
-
性能基准测试:部署该插件以对 Google Cloud Storage 中数据检索和存储操作的性能进行基准测试。通过随时间推移分析指标,团队可以识别性能瓶颈或效率低下问题,从而优化依赖云存储服务的应用程序和基础设施。
InfluxDB
-
实时系统监控:利用 InfluxDB 插件捕获和存储来自各种系统组件(例如 CPU 使用率、内存消耗和磁盘 I/O)的指标。通过将这些指标推送到 InfluxDB,您可以创建一个实时仪表板,以可视化实时系统性能。这种设置不仅有助于识别性能瓶颈,还可以通过分析长期趋势来协助主动容量规划。
-
Web 应用程序的性能跟踪:自动收集与 Web 应用程序性能相关的指标(例如请求持续时间、错误率和用户交互),并将它们推送到 InfluxDB。通过在监控堆栈中使用此插件,您可以使用存储的指标生成报告和分析,以帮助了解用户行为和应用程序效率,从而指导开发和优化工作。
-
物联网数据聚合:利用 InfluxDB Telegraf 插件从各种物联网设备收集传感器数据,并将其存储在集中的 InfluxDB 实例中。此用例使您能够分析环境或机器数据随时间变化的趋势和模式,从而促进更智能的决策和预测性维护策略。通过将物联网数据集成到 InfluxDB 中,组织可以利用历史数据分析的力量来推动创新和运营效率。
-
分析历史指标以进行预测:设置 InfluxDB 插件以将历史指标数据发送到 InfluxDB,并使用它来驱动预测模型。通过分析过去的性能指标,您可以创建预测未来趋势和需求的预测模型。此应用程序对于商业智能目的特别有用,可帮助组织根据历史使用模式为资源需求波动做好准备。
反馈
感谢您成为我们社区的一份子!如果您有任何一般性反馈或在这些页面上发现了任何错误,我们欢迎并鼓励您提出意见。请在 InfluxDB 社区 Slack 中提交您的反馈。
强大的性能,无限的扩展能力
收集、组织和处理海量高速数据。当您将任何数据视为时间序列数据时,它会更有价值。InfluxDB 是排名第一的时间序列平台,旨在通过 Telegraf 进行扩展。
查看入门方法