目录
输入和输出集成概述
NSQ Telegraf 插件从 NSQD 消息系统中读取指标,从而实现实时数据处理和监控。
Loki 插件允许用户将日志发送到 Loki 进行聚合和查询,从而利用 Loki 高效的存储能力。
集成详情
NSQ
NSQ 插件与 NSQ(一个实时消息传递平台)接口,从而可以从 NSQD 读取消息。此插件被归类为服务插件,这意味着它主动监听指标和事件,而不是定期轮询它们。为了强调可靠性,它会跟踪未送达的消息,直到它们被输出确认,从而防止数据丢失。该插件允许进行配置,例如指定 NSQLookupd 端点、主题和通道,并且它支持多种数据格式,以实现数据处理的灵活性。
Loki
此 Loki 插件与 Grafana Loki(一个强大的日志聚合系统)集成。通过以与 Loki 兼容的格式发送日志,此插件可以高效地存储和查询日志。每个日志条目都以键值格式结构化,其中键表示字段名称,值表示相应的日志信息。按时间戳对日志进行排序可确保日志流在通过 Loki 查询时保持时间顺序。此插件对密钥的支持使安全管理身份验证参数变得更加容易,而 HTTP 标头、gzip 编码和 TLS 配置选项增强了日志传输的适应性和安全性,从而满足各种部署需求。
配置
NSQ
# Read metrics from NSQD topic(s)
[[inputs.nsq_consumer]]
## Server option still works but is deprecated, we just prepend it to the nsqd array.
# server = "localhost:4150"
## An array representing the NSQD TCP HTTP Endpoints
nsqd = ["localhost:4150"]
## An array representing the NSQLookupd HTTP Endpoints
nsqlookupd = ["localhost:4161"]
topic = "telegraf"
channel = "consumer"
max_in_flight = 100
## Max undelivered messages
## This plugin uses tracking metrics, which ensure messages are read to
## outputs before acknowledging them to the original broker to ensure data
## is not lost. This option sets the maximum messages to read from the
## broker that have not been written by an output.
##
## This value needs to be picked with awareness of the agent's
## metric_batch_size value as well. Setting max undelivered messages too high
## can result in a constant stream of data batches to the output. While
## setting it too low may never flush the broker's messages.
# max_undelivered_messages = 1000
## Data format to consume.
## Each data format has its own unique set of configuration options, read
## more about them here:
## https://github.com/influxdata/telegraf/blob/master/docs/DATA_FORMATS_INPUT.md
data_format = "influx"
Loki
[[outputs.loki]]
## The domain of Loki
domain = "https://loki.domain.tld"
## Endpoint to write api
# endpoint = "/loki/api/v1/push"
## Connection timeout, defaults to "5s" if not set.
# timeout = "5s"
## Basic auth credential
# username = "loki"
# password = "pass"
## Additional HTTP headers
# http_headers = {"X-Scope-OrgID" = "1"}
## If the request must be gzip encoded
# gzip_request = false
## Optional TLS Config
# tls_ca = "/etc/telegraf/ca.pem"
# tls_cert = "/etc/telegraf/cert.pem"
# tls_key = "/etc/telegraf/key.pem"
## Sanitize Tag Names
## If true, all tag names will have invalid characters replaced with
## underscores that do not match the regex: ^[a-zA-Z_:][a-zA-Z0-9_:]*.
# sanitize_label_names = false
## Metric Name Label
## Label to use for the metric name to when sending metrics. If set to an
## empty string, this will not add the label. This is NOT suggested as there
## is no way to differentiate between multiple metrics.
# metric_name_label = "__name"
输入和输出集成示例
NSQ
-
实时分析仪表板:将此插件与可视化工具集成,以创建仪表板,该仪表板显示来自 NSQ 中各种主题的实时指标。通过订阅特定主题,用户可以动态监控系统健康状况和应用程序性能,从而可以立即获得洞察力并及时响应任何异常。
-
事件驱动的自动化:将 NSQ 与无服务器架构相结合,以根据传入的消息触发自动化工作流程。此用例可能涉及处理机器学习模型的数据或响应应用程序中的用户操作,从而简化操作并通过快速处理增强用户体验。
-
多服务通信中心:在分布式架构中使用 NSQ 插件充当不同微服务之间的集中式消息传递中心。通过使服务能够通过 NSQ 进行通信,开发人员可以确保可靠的消息传递,同时保持解耦的服务交互,从而显着提高可扩展性和弹性。
-
增强监控的指标聚合:实施 NSQ 插件以聚合来自多个来源的指标,然后再将其发送到分析工具。此设置使企业能够整合来自各种应用程序和服务的数据,创建统一的视图,从而更好地进行决策和战略规划。
Loki
-
微服务的集中式日志记录:利用 Loki 插件收集 Kubernetes 集群中运行的多个微服务的日志。通过将日志定向到集中的 Loki 实例,开发人员可以在一个位置监控、搜索和分析来自所有服务的日志,从而简化故障排除和性能监控。此设置简化了操作,并支持对分布式应用程序中的问题做出快速响应。
-
实时日志异常检测:将 Loki 与监控工具相结合,实时分析日志输出中可能指示系统错误或安全威胁的异常模式。在日志流上实施异常检测使团队能够主动识别和响应事件,从而提高系统可靠性并增强安全态势。
-
通过 Gzip 压缩增强日志处理:配置 Loki 插件以利用 gzip 压缩进行日志传输。这种方法可以减少带宽使用并提高传输速度,这在网络带宽可能受到限制的环境中尤其有利。它对于高容量日志记录应用程序尤其有用,在这些应用程序中,每个字节都很重要,并且性能至关重要。
-
具有自定义标头的多租户支持:利用添加自定义 HTTP 标头的功能来隔离多租户应用程序环境中的不同租户的日志。通过使用 Loki 插件为每个租户发送不同的标头,运营商可以确保正确的日志管理并符合数据隔离要求,使其成为 SaaS 应用程序的通用解决方案。
反馈
感谢您成为我们社区的一份子!如果您有任何一般性反馈或在这些页面上发现了任何错误,我们欢迎并鼓励您提出意见。请在 InfluxDB 社区 Slack 中提交您的反馈。