目录
强大的性能,无限的扩展能力
收集、组织和处理海量高速数据。 当您将任何数据视为时间序列数据时,它都更有价值。 使用 InfluxDB,第一的时间序列平台,旨在与 Telegraf 一起扩展。
查看入门方法
输入和输出集成概述
Azure 事件中心输入插件允许 Telegraf 从 Azure 事件中心和 Azure IoT 中心消费数据,从而能够高效地处理数据并监控来自这些云服务的事件流。
此插件允许使用 Metrics API 将指标发送到 New Relic Insights,从而能够有效地监控和分析应用程序性能。
集成详情
Azure 事件中心
此插件充当 Azure 事件中心和 Azure IoT 中心的消费者,允许用户高效地从这些平台摄取数据流。 Azure 事件中心是一个高度可扩展的数据流平台和事件摄取服务,能够每秒接收和处理数百万个事件,而 Azure IoT 中心支持物联网应用中安全的设备到云和云到设备通信。 事件中心输入插件与这些服务无缝交互,提供可靠的消息消费和流处理能力。 主要功能包括消费者组的动态管理、防止数据丢失的消息跟踪以及用于预取计数、用户代理和元数据处理的可自定义设置。 此插件旨在支持各种用例,包括实时遥测数据收集、物联网数据处理以及与更广泛的 Azure 生态系统中的各种数据分析和监控工具集成。
New Relic
此插件使用 Metrics API 将指标写入 New Relic Insights,Metrics API 提供了一种将时间序列数据发送到 New Relic 平台的强大机制。 用户必须首先获取 Insights API 密钥,以验证和授权其数据提交。 该插件旨在促进与 New Relic 的监控和分析功能轻松集成,支持各种指标类型并允许高效的数据处理。 核心功能包括为指标添加前缀以更好地识别、API 请求的可自定义超时以及支持代理设置以增强连接性。 用户必须根据其要求配置这些选项,以实现数据无缝流入 New Relic,从而进行全面的实时分析和洞察。
配置
Azure 事件中心
[[inputs.eventhub_consumer]]
## The default behavior is to create a new Event Hub client from environment variables.
## This requires one of the following sets of environment variables to be set:
##
## 1) Expected Environment Variables:
## - "EVENTHUB_CONNECTION_STRING"
##
## 2) Expected Environment Variables:
## - "EVENTHUB_NAMESPACE"
## - "EVENTHUB_NAME"
## - "EVENTHUB_KEY_NAME"
## - "EVENTHUB_KEY_VALUE"
## 3) Expected Environment Variables:
## - "EVENTHUB_NAMESPACE"
## - "EVENTHUB_NAME"
## - "AZURE_TENANT_ID"
## - "AZURE_CLIENT_ID"
## - "AZURE_CLIENT_SECRET"
## Uncommenting the option below will create an Event Hub client based solely on the connection string.
## This can either be the associated environment variable or hard coded directly.
## If this option is uncommented, environment variables will be ignored.
## Connection string should contain EventHubName (EntityPath)
# connection_string = ""
## Set persistence directory to a valid folder to use a file persister instead of an in-memory persister
# persistence_dir = ""
## Change the default consumer group
# consumer_group = ""
## By default the event hub receives all messages present on the broker, alternative modes can be set below.
## The timestamp should be in https://github.com/toml-lang/toml#offset-date-time format (RFC 3339).
## The 3 options below only apply if no valid persister is read from memory or file (e.g. first run).
# from_timestamp =
# latest = true
## Set a custom prefetch count for the receiver(s)
# prefetch_count = 1000
## Add an epoch to the receiver(s)
# epoch = 0
## Change to set a custom user agent, "telegraf" is used by default
# user_agent = "telegraf"
## To consume from a specific partition, set the partition_ids option.
## An empty array will result in receiving from all partitions.
# partition_ids = ["0","1"]
## Max undelivered messages
## This plugin uses tracking metrics, which ensure messages are read to
## outputs before acknowledging them to the original broker to ensure data
## is not lost. This option sets the maximum messages to read from the
## broker that have not been written by an output.
##
## This value needs to be picked with awareness of the agent's
## metric_batch_size value as well. Setting max undelivered messages too high
## can result in a constant stream of data batches to the output. While
## setting it too low may never flush the broker's messages.
# max_undelivered_messages = 1000
## Set either option below to true to use a system property as timestamp.
## You have the choice between EnqueuedTime and IoTHubEnqueuedTime.
## It is recommended to use this setting when the data itself has no timestamp.
# enqueued_time_as_ts = true
# iot_hub_enqueued_time_as_ts = true
## Tags or fields to create from keys present in the application property bag.
## These could for example be set by message enrichments in Azure IoT Hub.
# application_property_tags = []
# application_property_fields = []
## Tag or field name to use for metadata
## By default all metadata is disabled
# sequence_number_field = "SequenceNumber"
# enqueued_time_field = "EnqueuedTime"
# offset_field = "Offset"
# partition_id_tag = "PartitionID"
# partition_key_tag = "PartitionKey"
# iot_hub_device_connection_id_tag = "IoTHubDeviceConnectionID"
# iot_hub_auth_generation_id_tag = "IoTHubAuthGenerationID"
# iot_hub_connection_auth_method_tag = "IoTHubConnectionAuthMethod"
# iot_hub_connection_module_id_tag = "IoTHubConnectionModuleID"
# iot_hub_enqueued_time_field = "IoTHubEnqueuedTime"
## Data format to consume.
## Each data format has its own unique set of configuration options, read
## more about them here:
## https://github.com/influxdata/telegraf/blob/master/docs/DATA_FORMATS_INPUT.md
data_format = "influx"
New Relic
[[outputs.newrelic]]
## The 'insights_key' parameter requires a NR license key.
## New Relic recommends you create one
## with a convenient name such as TELEGRAF_INSERT_KEY.
## reference: https://docs.newrelic.com/docs/apis/intro-apis/new-relic-api-keys/#ingest-license-key
# insights_key = "New Relic License Key Here"
## Prefix to add to add to metric name for easy identification.
## This is very useful if your metric names are ambiguous.
# metric_prefix = ""
## Timeout for writes to the New Relic API.
# timeout = "15s"
## HTTP Proxy override. If unset use values from the standard
## proxy environment variables to determine proxy, if any.
# http_proxy = "http://corporate.proxy:3128"
## Metric URL override to enable geographic location endpoints.
# If not set use values from the standard
# metric_url = "https://metric-api.newrelic.com/metric/v1"
输入和输出集成示例
Azure 事件中心
-
实时物联网设备监控:使用 Azure 事件中心插件监控来自传感器和执行器等物联网设备的遥测数据。 通过将设备数据流式传输到监控仪表板,组织可以深入了解系统性能、跟踪使用模式并快速响应异常情况。 这种设置可以对设备进行主动管理,提高运营效率并减少停机时间。
-
事件驱动的数据处理工作流:利用此插件来响应从 Azure 事件中心接收的事件,触发数据处理工作流。 例如,当新事件到达时,它可以启动数据转换、聚合或存储过程,从而使企业能够更有效地自动化其工作流。 这种集成增强了响应能力并简化了跨系统的操作。
-
与分析平台集成:实施此插件以将事件数据汇集到 Azure Synapse 或 Power BI 等分析平台。 通过将实时流数据集成到分析工具中,组织可以执行全面的数据分析、推动商业智能工作并创建交互式可视化效果,从而为决策提供信息。
-
跨平台数据同步:利用 Azure 事件中心插件跨不同系统或平台同步数据流。 通过从 Azure 事件中心消费数据并将其转发到数据库或云存储等其他系统,组织可以在其整个架构中维护一致且最新的信息,从而实现有凝聚力的数据策略。
New Relic
-
应用程序性能监控:使用 New Relic Telegraf 插件将来自 Web 服务的应用程序性能指标发送到 New Relic Insights。 通过集成此插件,开发人员可以收集响应时间、错误率和吞吐量等数据,使团队能够实时监控应用程序健康状况,并在问题影响用户之前快速解决问题。 这种设置有助于主动管理应用程序性能和用户体验。
-
基础设施指标聚合:利用此插件聚合来自各种服务器的系统级指标(CPU 使用率、内存消耗等)并将其发送到 New Relic。 这有助于系统管理员维护基础设施性能的全面视图,从而促进容量规划并识别潜在瓶颈。 通过在 New Relic 中集中指标,团队可以可视化随时间变化的趋势,并就资源分配做出明智的决策。
-
多租户应用程序的动态指标命名:使用 metric_prefix 选项实现动态前缀,以区分多租户应用程序中的不同租户。 通过配置插件以在指标名称中包含每个租户的唯一标识符,团队可以分析每个租户的使用模式和性能指标。 这提供了有关租户行为的宝贵见解,支持定制优化并提高不同客户群的服务质量。
-
实时异常检测:将 New Relic 插件与警报机制相结合,以根据异常指标模式触发通知。 通过发送请求计数和响应时间等指标,团队可以在 New Relic 中设置阈值,当阈值被突破时,将自动向责任方发出警报。 这种用户驱动的方法支持对潜在问题做出即时响应,防止问题升级为更大的事件。
反馈
感谢您成为我们社区的一份子! 如果您有任何一般性反馈或在这些页面上发现了任何错误,我们欢迎并鼓励您提出意见。 请在 InfluxDB 社区 Slack 中提交您的反馈。
强大的性能,无限的扩展能力
收集、组织和处理海量高速数据。 当您将任何数据视为时间序列数据时,它都更有价值。 使用 InfluxDB,第一的时间序列平台,旨在与 Telegraf 一起扩展。
查看入门方法