目录
强大的性能,无限的扩展
收集、组织和处理海量高速数据。 当您将任何数据视为时序数据时,它都更有价值。 使用 InfluxDB,这个排名第一的时序平台,它与 Telegraf 一起构建以实现扩展。
查看入门方法
输入和输出集成概述
ActiveMQ 输入插件通过其控制台 API 从 ActiveMQ 消息代理收集指标,从而深入了解消息队列、主题和订阅者的性能和状态。
Telegraf 的 SQL 插件允许在 SQL 数据库中无缝存储指标。 当配置为 Snowflake 时,它采用专门的 DSN 格式和动态表创建,以将指标映射到适当的架构。
集成详情
ActiveMQ
ActiveMQ 输入插件与 ActiveMQ 控制台 API 接口,以收集与队列、主题和订阅者相关的指标。 ActiveMQ 是一款广泛使用的开源消息代理,支持各种消息协议,并提供强大的 Web 控制台用于管理和监控。 此插件允许用户跟踪重要的指标,包括队列大小、消费者计数和不同 ActiveMQ 实体中的消息计数,从而增强消息传递系统内的可观察性。 用户可以配置各种参数,例如 WebConsole URL 和基本身份验证凭据,以根据其环境定制插件。 收集的指标可用于监控消息传递应用程序的运行状况和性能,从而促进主动管理和故障排除。
Snowflake
Telegraf 的 SQL 插件旨在通过基于传入数据创建表和列,将指标动态写入 SQL 数据库。 当配置为 Snowflake 时,它采用 gosnowflake 驱动程序,该驱动程序使用 DSN,该 DSN 以紧凑的格式封装凭据、帐户详细信息和数据库配置。 此设置允许自动生成表,其中每个指标都以精确的时间戳记录,从而确保详细的历史跟踪。 尽管该集成被认为是实验性的,但它利用了 Snowflake 强大的数据仓库功能,使其适用于可扩展的、基于云的分析和报告解决方案。
配置
ActiveMQ
[[inputs.activemq]]
## ActiveMQ WebConsole URL
url = "http://127.0.0.1:8161"
## Required ActiveMQ Endpoint
## deprecated in 1.11; use the url option
# server = "192.168.50.10"
# port = 8161
## Credentials for basic HTTP authentication
# username = "admin"
# password = "admin"
## Required ActiveMQ webadmin root path
# webadmin = "admin"
## Maximum time to receive response.
# response_timeout = "5s"
## Optional TLS Config
# tls_ca = "/etc/telegraf/ca.pem"
# tls_cert = "/etc/telegraf/cert.pem"
# tls_key = "/etc/telegraf/key.pem"
## Use TLS but skip chain & host verification
# insecure_skip_verify = false
Snowflake
[[outputs.sql]]
## Database driver
## Valid options: mssql (Microsoft SQL Server), mysql (MySQL), pgx (Postgres),
## sqlite (SQLite3), snowflake (snowflake.com), clickhouse (ClickHouse)
driver = "snowflake"
## Data source name
## For Snowflake, the DSN format typically includes the username, password, account identifier, and optional warehouse, database, and schema.
## Example DSN: "username:password@account/warehouse/db/schema"
data_source_name = "username:password@account/warehouse/db/schema"
## Timestamp column name
timestamp_column = "timestamp"
## Table creation template
## Available template variables:
## {TABLE} - table name as a quoted identifier
## {TABLELITERAL} - table name as a quoted string literal
## {COLUMNS} - column definitions (list of quoted identifiers and types)
table_template = "CREATE TABLE {TABLE} ({COLUMNS})"
## Table existence check template
## Available template variables:
## {TABLE} - table name as a quoted identifier
table_exists_template = "SELECT 1 FROM {TABLE} LIMIT 1"
## Initialization SQL (optional)
init_sql = ""
## Maximum amount of time a connection may be idle. "0s" means connections are never closed due to idle time.
connection_max_idle_time = "0s"
## Maximum amount of time a connection may be reused. "0s" means connections are never closed due to age.
connection_max_lifetime = "0s"
## Maximum number of connections in the idle connection pool. 0 means unlimited.
connection_max_idle = 2
## Maximum number of open connections to the database. 0 means unlimited.
connection_max_open = 0
## Metric type to SQL type conversion
## Defaults to ANSI/ISO SQL types unless overridden. Adjust if needed for Snowflake compatibility.
#[outputs.sql.convert]
# integer = "INT"
# real = "DOUBLE"
# text = "TEXT"
# timestamp = "TIMESTAMP"
# defaultvalue = "TEXT"
# unsigned = "UNSIGNED"
# bool = "BOOL"
输入和输出集成示例
ActiveMQ
-
主动队列监控:对于高容量交易应用程序,使用 ActiveMQ 插件实时监控队列大小。 此实现允许团队在队列大小超过特定阈值时接收警报,从而能够快速响应积压可能导致的潜在停机时间,从而确保交易操作的持续可用性。
-
性能基线和异常检测:将此插件与机器学习框架集成,以建立消息吞吐量的性能基线。 通过分析通过此插件收集的历史数据,团队可以标记处理速率中的异常,从而更快地识别影响服务可靠性和性能的问题。
-
跨消息传递系统分析:在集中式仪表板中将来自 ActiveMQ 的指标与来自其他消息传递系统的指标相结合。 用户可以可视化和比较性能数据(例如入队和出队速率),从而深入了解整体消息传递架构,并帮助优化不同代理之间的消息流。
-
订阅者性能洞察:利用此插件收集的订阅者指标来分析行为模式并优化消费者应用程序的配置。 了解已调度队列大小和计数器值等指标可以指导调整,以提高处理效率和资源分配。
Snowflake
-
基于云的数据湖集成:利用该插件将来自各种来源的实时指标流式传输到 Snowflake,从而创建集中式数据湖。 这种集成支持云数据上的复杂分析和机器学习工作流程。
-
动态商业智能仪表板:利用该插件从传入指标自动生成表,并将它们馈送到 BI 工具中。 这使企业能够创建动态仪表板,以可视化性能趋势和运营洞察,而无需手动模式管理。
-
可扩展的物联网分析:部署该插件以捕获来自物联网设备的高频数据到 Snowflake 中。 此用例有助于传感器数据的聚合和分析,从而实现大规模的预测性维护和实时监控。
-
用于合规性的历史趋势分析:使用该插件在 Snowflake 中记录和存档详细的指标数据,然后可以查询这些数据以进行长期趋势分析和合规性报告。 此设置确保组织可以维护强大的审计跟踪并在需要时执行取证分析。
反馈
感谢您成为我们社区的一份子! 如果您有任何一般性反馈或在这些页面上发现任何错误,我们欢迎并鼓励您提出意见。 请在 InfluxDB 社区 Slack 中提交您的反馈。
强大的性能,无限的扩展
收集、组织和处理海量高速数据。 当您将任何数据视为时序数据时,它都更有价值。 使用 InfluxDB,这个排名第一的时序平台,它与 Telegraf 一起构建以实现扩展。
查看入门方法