Google Cloud Storage 和 MariaDB 集成

强大的性能和简单的集成,由 InfluxData 构建的开源数据连接器 Telegraf 提供支持。

info

这不是大规模实时查询的推荐配置。为了进行查询和压缩优化、高速摄取和高可用性,您可能需要考虑 Google Cloud Storage 和 InfluxDB。

50 亿+

Telegraf 下载量

#1

时序数据库
来源:DB Engines

10 亿+

InfluxDB 下载量

2,800+

贡献者

目录

强大的性能,无限的扩展能力

收集、组织和处理海量高速数据。当您将任何数据视为时间序列数据时,它都更有价值。InfluxDB 是排名第一的时间序列平台,旨在通过 Telegraf 进行扩展。

查看入门方法

输入和输出集成概述

Google Cloud Storage 插件从指定的 Google Cloud Storage 存储桶收集指标,从而深入了解存储使用情况和性能。

此插件使用参数化的 SQL INSERT 语句将来自 Telegraf 的指标直接写入 MariaDB,从而提供了一种将指标存储在结构化关系表中的灵活方式。

集成详情

Google Cloud Storage

Google Cloud Storage Telegraf 插件能够从指定的 Google Cloud Storage 存储桶中收集指标。随着组织越来越依赖云存储解决方案进行数据管理,监控这些资源的性能和利用率的能力变得至关重要。此插件特别适用于跟踪存储的使用方式、了解数据模式以及确保运营效率。通过与 Google Cloud Storage API 集成,它允许用户从其云环境中收集见解,并将指标直接馈送到监控系统以进行进一步分析。该插件支持各种配置选项,使用户能够根据其特定需求自定义数据收集过程。

MariaDB

Telegraf 中的 SQL 输出插件可以通过执行参数化的 SQL 语句,将指标直接写入与 SQL 兼容的数据库(如 MariaDB)。通过对 MySQL 驱动程序的支持,该插件与 MariaDB 无缝集成,以实现可靠的结构化指标存储。此设置非常适合喜欢基于 SQL 的分析或希望将指标与业务数据一起存储以进行统一查询的用户。MariaDB 是 MySQL 的一个社区开发的、企业级的分支,它强调性能、安全性以及开放性。该插件支持将时间序列指标插入到自定义架构中,从而可以使用 SQL 连接器灵活地进行分析,并与 Metabase 或 Grafana 等 BI 工具集成。

配置

Google Cloud Storage

[[inputs.google_cloud_storage]]
  bucket = "my-bucket"
  # key_prefix = "my-bucket"
  offset_key = "offset_key"
  objects_per_iteration = 10
  data_format = "influx"
  # credentials_file = "path/to/my/creds.json"

MariaDB

[[outputs.sql]]
  ## Database driver
  ## Valid options: mssql (Microsoft SQL Server), mysql (MySQL), pgx (Postgres),
  ##  sqlite (SQLite3), snowflake (snowflake.com) clickhouse (ClickHouse)
  driver = "mysql"

  ## Data source name
  ## The format of the data source name is different for each database driver.
  ## See the plugin readme for details.
  data_source_name = "username:password@tcp(host:port)/dbname"

  ## Timestamp column name
  timestamp_column = "timestamp"

  ## Table creation template
  ## Available template variables:
  ##  {TABLE} - table name as a quoted identifier
  ##  {TABLELITERAL} - table name as a quoted string literal
  ##  {COLUMNS} - column definitions (list of quoted identifiers and types)
  table_template = "CREATE TABLE {TABLE}({COLUMNS})"

  ## SQL INSERT statement with placeholders. Telegraf will substitute values at runtime.
  ## table_template = "INSERT INTO metrics (timestamp, name, value, tags) VALUES (?, ?, ?, ?)"

  ## Table existence check template
  ## Available template variables:
  ##  {TABLE} - tablename as a quoted identifier
  table_exists_template = "SELECT 1 FROM {TABLE} LIMIT 1"

  ## Initialization SQL
  init_sql = "SET sql_mode='ANSI_QUOTES';"

  ## Maximum amount of time a connection may be idle. "0s" means connections are
  ## never closed due to idle time.
  connection_max_idle_time = "0s"

  ## Maximum amount of time a connection may be reused. "0s" means connections
  ## are never closed due to age.
  connection_max_lifetime = "0s"

  ## Maximum number of connections in the idle connection pool. 0 means unlimited.
  connection_max_idle = 2

  ## Maximum number of open connections to the database. 0 means unlimited.
  connection_max_open = 0

  ## NOTE: Due to the way TOML is parsed, tables must be at the END of the
  ## plugin definition, otherwise additional config options are read as part of the
  ## table

  ## Metric type to SQL type conversion
  ## The values on the left are the data types Telegraf has and the values on
  ## the right are the data types Telegraf will use when sending to a database.
  ##
  ## The database values used must be data types the destination database
  ## understands. It is up to the user to ensure that the selected data type is
  ## available in the database they are using. Refer to your database
  ## documentation for what data types are available and supported.
  #[outputs.sql.convert]
  #  integer              = "INT"
  #  real                 = "DOUBLE"
  #  text                 = "TEXT"
  #  timestamp            = "TIMESTAMP"
  #  defaultvalue         = "TEXT"
  #  unsigned             = "UNSIGNED"
  #  bool                 = "BOOL"
  #  ## This setting controls the behavior of the unsigned value. By default the
  #  ## setting will take the integer value and append the unsigned value to it. The other
  #  ## option is "literal", which will use the actual value the user provides to
  #  ## the unsigned option. This is useful for a database like ClickHouse where
  #  ## the unsigned value should use a value like "uint64".
  #  # conversion_style = "unsigned_suffix"

输入和输出集成示例

Google Cloud Storage

  1. 自动化备份监控:利用 Google Cloud Storage 插件定期监控存储在 Cloud Storage 存储桶中的备份文件状态。通过配置插件以跟踪文件指标,组织可以自动发出警报,以防备份大小偏离预期模式,从而确保数据保护流程正常运行,并及时解决任何异常情况。

  2. 成本优化洞察:将此插件集成到成本管理工具中,以分析 Cloud Storage 的使用模式。通过收集有关文件大小和访问频率的指标,团队可以优化其存储解决方案,并就数据保留策略做出明智的决策,从而有可能降低不必要的存储成本并改善资源分配。

  3. 合规性和审计:使用该插件生成有助于验证存储在 Google Cloud Storage 中的数据是否合规的指标。通过提供有关数据访问和存储使用情况的详细见解,组织可以确保遵守法规要求,从而有助于审计并符合数据治理的最佳实践。

  4. 性能基准测试:部署该插件以对 Google Cloud Storage 中数据检索和存储操作的性能进行基准测试。通过分析一段时间内的指标,团队可以识别性能瓶颈或效率低下之处,从而优化依赖云存储服务的应用程序和基础设施。

MariaDB

  1. 商业智能集成:将应用程序性能指标直接存储到 MariaDB 中,并将其连接到 Metabase 或 Apache Superset 等 BI 工具。此设置允许将运营数据与业务 KPI 混合,以实现统一的仪表板,从而提高跨部门的可见性。

  2. 具有历史指标的合规性报告:使用此插件将指标记录到 MariaDB 中,用于审计和合规性用例。关系模型支持使用时间戳条目精确查询过去的绩效指标,从而支持法规文档。

  3. 基于 SQL 逻辑的自定义警报:将指标插入 MariaDB,并使用自定义 SQL 查询来定义警报阈值或条件。与 cron 作业或计划脚本结合使用,这可以实现传统指标平台无法实现的高级警报工作流程。

  4. IoT 传感器指标存储:通过 Telegraf 收集来自 IoT 设备的数据,并使用规范化架构将其存储在 MariaDB 中。这种方法经济高效,并且可以很好地与现有的基于 SQL 的系统集成,以进行实时或历史分析。

反馈

感谢您成为我们社区的一份子!如果您有任何一般性反馈或在这些页面上发现了任何错误,我们欢迎并鼓励您提出意见。请在 InfluxDB 社区 Slack 中提交您的反馈。

强大的性能,无限的扩展能力

收集、组织和处理海量高速数据。当您将任何数据视为时间序列数据时,它都更有价值。InfluxDB 是排名第一的时间序列平台,旨在通过 Telegraf 进行扩展。

查看入门方法

相关集成

HTTP 和 InfluxDB 集成

HTTP 插件从一个或多个 HTTP(S) 端点收集指标。它支持各种身份验证方法和数据格式的配置选项。

查看集成

Kafka 和 InfluxDB 集成

此插件从 Kafka 读取消息,并允许基于这些消息创建指标。它支持各种配置,包括不同的 Kafka 设置和消息处理选项。

查看集成

Kinesis 和 InfluxDB 集成

Kinesis 插件允许从 AWS Kinesis 流中读取指标。它支持多种输入数据格式,并提供使用 DynamoDB 的检查点功能,以实现可靠的消息处理。

查看集成