Zipkin 和 MariaDB 集成

强大的性能和简单的集成,由 InfluxData 构建的开源数据连接器 Telegraf 提供支持。

info

对于大规模实时查询,这不是推荐的配置。 为了进行查询和压缩优化、高速摄取和高可用性,您可能需要考虑 Zipkin 和 InfluxDB

50 亿+

Telegraf 下载量

#1

时间序列数据库
来源:DB Engines

10 亿+

InfluxDB 下载量

2,800+

贡献者

目录

强大的性能,无限的扩展

收集、组织和处理海量高速数据。 当您将任何数据视为时间序列数据时,它都会更有价值。 借助 InfluxDB,排名第一的时间序列平台,旨在与 Telegraf 一起扩展。

查看入门方法

输入和输出集成概述

Zipkin 输入插件允许从微服务收集跟踪信息和时间数据。 此功能对于诊断复杂面向服务环境中的延迟问题至关重要。

此插件使用参数化的 SQL INSERT 语句将指标从 Telegraf 直接写入 MariaDB,从而提供了一种将指标存储在结构化关系表中的灵活方式。

集成详情

Zipkin

此插件实现了 Zipkin HTTP 服务器,用于收集跟踪和时间数据,这些数据对于解决微服务架构中的延迟问题至关重要。 Zipkin 是一个分布式跟踪系统,可帮助收集跨各种微服务的时间数据,使团队能够可视化请求流并识别性能瓶颈。 该插件支持基于指定的 Content-Type 以 JSON 或 thrift 格式输入跟踪。 此外,它还利用 span 元数据来跟踪请求的计时,从而增强对符合 OpenTracing 标准的应用程序的可观察性。 作为一个实验性功能,其配置和架构可能会随着时间的推移而演变,以更好地满足用户需求和分布式跟踪方法的进步。

MariaDB

Telegraf 中的 SQL 输出插件允许通过执行参数化的 SQL 语句将指标直接写入与 SQL 兼容的数据库(如 MariaDB)。 通过对 MySQL 驱动程序的支持,该插件与 MariaDB 无缝集成,以实现可靠、结构化的指标存储。 对于喜欢基于 SQL 的分析或希望将指标与业务数据一起存储以进行统一查询的用户来说,此设置非常理想。 MariaDB 是一个社区开发的、企业级的 MySQL 分支,强调性能、安全性 和开放性。 该插件支持将时间序列指标插入自定义模式,从而实现灵活的分析以及与使用 SQL 连接器的 BI 工具(如 Metabase 或 Grafana)的集成。

配置

Zipkin

[[inputs.zipkin]]
  ## URL path for span data
  # path = "/api/v1/spans"

  ## Port on which Telegraf listens
  # port = 9411

  ## Maximum duration before timing out read of the request
  # read_timeout = "10s"
  ## Maximum duration before timing out write of the response
  # write_timeout = "10s"

MariaDB

[[outputs.sql]]
  ## Database driver
  ## Valid options: mssql (Microsoft SQL Server), mysql (MySQL), pgx (Postgres),
  ##  sqlite (SQLite3), snowflake (snowflake.com) clickhouse (ClickHouse)
  driver = "mysql"

  ## Data source name
  ## The format of the data source name is different for each database driver.
  ## See the plugin readme for details.
  data_source_name = "username:password@tcp(host:port)/dbname"

  ## Timestamp column name
  timestamp_column = "timestamp"

  ## Table creation template
  ## Available template variables:
  ##  {TABLE} - table name as a quoted identifier
  ##  {TABLELITERAL} - table name as a quoted string literal
  ##  {COLUMNS} - column definitions (list of quoted identifiers and types)
  table_template = "CREATE TABLE {TABLE}({COLUMNS})"

  ## SQL INSERT statement with placeholders. Telegraf will substitute values at runtime.
  ## table_template = "INSERT INTO metrics (timestamp, name, value, tags) VALUES (?, ?, ?, ?)"

  ## Table existence check template
  ## Available template variables:
  ##  {TABLE} - tablename as a quoted identifier
  table_exists_template = "SELECT 1 FROM {TABLE} LIMIT 1"

  ## Initialization SQL
  init_sql = "SET sql_mode='ANSI_QUOTES';"

  ## Maximum amount of time a connection may be idle. "0s" means connections are
  ## never closed due to idle time.
  connection_max_idle_time = "0s"

  ## Maximum amount of time a connection may be reused. "0s" means connections
  ## are never closed due to age.
  connection_max_lifetime = "0s"

  ## Maximum number of connections in the idle connection pool. 0 means unlimited.
  connection_max_idle = 2

  ## Maximum number of open connections to the database. 0 means unlimited.
  connection_max_open = 0

  ## NOTE: Due to the way TOML is parsed, tables must be at the END of the
  ## plugin definition, otherwise additional config options are read as part of the
  ## table

  ## Metric type to SQL type conversion
  ## The values on the left are the data types Telegraf has and the values on
  ## the right are the data types Telegraf will use when sending to a database.
  ##
  ## The database values used must be data types the destination database
  ## understands. It is up to the user to ensure that the selected data type is
  ## available in the database they are using. Refer to your database
  ## documentation for what data types are available and supported.
  #[outputs.sql.convert]
  #  integer              = "INT"
  #  real                 = "DOUBLE"
  #  text                 = "TEXT"
  #  timestamp            = "TIMESTAMP"
  #  defaultvalue         = "TEXT"
  #  unsigned             = "UNSIGNED"
  #  bool                 = "BOOL"
  #  ## This setting controls the behavior of the unsigned value. By default the
  #  ## setting will take the integer value and append the unsigned value to it. The other
  #  ## option is "literal", which will use the actual value the user provides to
  #  ## the unsigned option. This is useful for a database like ClickHouse where
  #  ## the unsigned value should use a value like "uint64".
  #  # conversion_style = "unsigned_suffix"

输入和输出集成示例

Zipkin

  1. 微服务中的延迟监控:使用 Zipkin 输入插件捕获和分析来自微服务架构的跟踪数据。 通过可视化请求流并查明延迟源,开发团队可以优化服务交互,缩短响应时间,并确保跨服务的更流畅的用户体验。

  2. 关键服务中的性能优化:在关键服务中集成该插件,不仅可以监控响应时间,还可以跟踪可能突出显示性能问题的特定注释。 收集 span 数据的能力可以帮助确定需要性能增强的区域的优先级,从而实现有针对性的改进。

  3. 动态服务依赖关系映射:使用收集的跟踪数据,自动映射服务依赖关系并在仪表板中可视化它们。 这有助于团队了解不同服务如何交互以及故障或速度减慢的影响,最终促成更好的架构决策和更快的问题解决。

  4. 服务延迟中的异常检测:将 Zipkin 数据与机器学习模型相结合,以检测服务延迟和请求处理时间中的异常模式。 通过自动识别异常,运营团队可以在新兴问题升级为严重故障之前主动响应。

MariaDB

  1. 商业智能集成:将应用程序性能指标直接存储到 MariaDB 中,并将其连接到 BI 工具(如 Metabase 或 Apache Superset)。 此设置允许将运营数据与业务 KPI 混合以实现统一的仪表板,从而增强跨部门的可见性。

  2. 具有历史指标的合规性报告:使用此插件将指标记录到 MariaDB 中,以用于审计和合规性用例。 关系模型支持使用带时间戳的条目精确查询过去的性能指标,从而支持监管文档。

  3. 基于 SQL 逻辑的自定义警报:将指标插入 MariaDB 并使用自定义 SQL 查询来定义警报阈值或条件。 结合 cron 作业或计划脚本,这可以实现传统指标平台无法实现的先进警报工作流程。

  4. 物联网传感器指标存储:通过 Telegraf 从物联网设备收集传感器数据,并使用规范化模式将其存储在 MariaDB 中。 这种方法具有成本效益,并且可以很好地与现有的基于 SQL 的系统集成,以进行实时或历史分析。

反馈

感谢您成为我们社区的一份子! 如果您有任何一般性反馈或在这些页面上发现了任何错误,我们欢迎并鼓励您提出意见。 请在 InfluxDB 社区 Slack 中提交您的反馈。

强大的性能,无限的扩展

收集、组织和处理海量高速数据。 当您将任何数据视为时间序列数据时,它都会更有价值。 借助 InfluxDB,排名第一的时间序列平台,旨在与 Telegraf 一起扩展。

查看入门方法

相关集成

HTTP 和 InfluxDB 集成

HTTP 插件从一个或多个 HTTP(S) 端点收集指标。 它支持各种身份验证方法和数据格式的配置选项。

查看集成

Kafka 和 InfluxDB 集成

此插件从 Kafka 读取消息,并允许基于这些消息创建指标。 它支持各种配置,包括不同的 Kafka 设置和消息处理选项。

查看集成

Kinesis 和 InfluxDB 集成

Kinesis 插件允许从 AWS Kinesis 流中读取指标。 它支持多种输入数据格式,并提供 DynamoDB 的检查点功能,以实现可靠的消息处理。

查看集成