Azure 事件中心和 Cortex 集成

强大的性能和简易的集成,由 InfluxData 构建的开源数据连接器 Telegraf 提供支持。

info

对于大规模实时查询,这不是推荐的配置。 为了进行查询和压缩优化、高速摄取和高可用性,您可能需要考虑Azure 事件中心和 InfluxDB

50 亿+

Telegraf 下载量

#1

时间序列数据库
来源:DB-Engines

10 亿+

InfluxDB 下载量

2,800+

贡献者

目录

强大的性能,无限的扩展

收集、组织和处理海量高速数据。 当您将任何数据视为时间序列数据时,它都会变得更有价值。 借助 InfluxDB,这个排名第一的时间序列平台旨在与 Telegraf 一起扩展。

查看入门方法

输入和输出集成概述

Azure 事件中心输入插件允许 Telegraf 从 Azure 事件中心和 Azure IoT 中心消费数据,从而实现来自这些云服务的事件流的高效数据处理和监控。

此插件使 Telegraf 能够使用 Prometheus 远程写入协议将指标发送到 Cortex,从而可以无缝地摄取到 Cortex 的可扩展、多租户时间序列存储中。

集成详情

Azure 事件中心

此插件充当 Azure 事件中心和 Azure IoT 中心的消费者,允许用户有效地从这些平台摄取数据流。 Azure 事件中心是一个高度可扩展的数据流平台和事件摄取服务,能够每秒接收和处理数百万个事件,而 Azure IoT 中心支持 IoT 应用程序中安全的设备到云和云到设备通信。 事件中心输入插件与这些服务无缝交互,提供可靠的消息消费和流处理功能。 主要功能包括消费者组的动态管理、防止数据丢失的消息跟踪以及用于预取计数、用户代理和元数据处理的可自定义设置。 此插件旨在支持各种用例,包括实时遥测数据收集、IoT 数据处理以及与更广泛的 Azure 生态系统中的各种数据分析和监控工具集成。

Cortex

借助 Telegraf 的 HTTP 输出插件和 prometheusremotewrite 数据格式,您可以将指标直接发送到 Cortex,这是一款用于 Prometheus 的水平可扩展长期存储后端。 Cortex 支持多租户,并使用 Prometheus protobuf 格式接受远程写入请求。 通过使用 Telegraf 作为收集代理,并使用远程写入作为传输机制,组织可以将可观察性扩展到 Prometheus 本身不支持的来源(例如 Windows 主机、支持 SNMP 的设备或自定义应用程序指标),同时利用 Cortex 的高可用性和长期保留能力。

配置

Azure 事件中心

[[inputs.eventhub_consumer]]
  ## The default behavior is to create a new Event Hub client from environment variables.
  ## This requires one of the following sets of environment variables to be set:
  ##
  ## 1) Expected Environment Variables:
  ##    - "EVENTHUB_CONNECTION_STRING"
  ##
  ## 2) Expected Environment Variables:
  ##    - "EVENTHUB_NAMESPACE"
  ##    - "EVENTHUB_NAME"
  ##    - "EVENTHUB_KEY_NAME"
  ##    - "EVENTHUB_KEY_VALUE"

  ## 3) Expected Environment Variables:
  ##    - "EVENTHUB_NAMESPACE"
  ##    - "EVENTHUB_NAME"
  ##    - "AZURE_TENANT_ID"
  ##    - "AZURE_CLIENT_ID"
  ##    - "AZURE_CLIENT_SECRET"

  ## Uncommenting the option below will create an Event Hub client based solely on the connection string.
  ## This can either be the associated environment variable or hard coded directly.
  ## If this option is uncommented, environment variables will be ignored.
  ## Connection string should contain EventHubName (EntityPath)
  # connection_string = ""

  ## Set persistence directory to a valid folder to use a file persister instead of an in-memory persister
  # persistence_dir = ""

  ## Change the default consumer group
  # consumer_group = ""

  ## By default the event hub receives all messages present on the broker, alternative modes can be set below.
  ## The timestamp should be in https://github.com/toml-lang/toml#offset-date-time format (RFC 3339).
  ## The 3 options below only apply if no valid persister is read from memory or file (e.g. first run).
  # from_timestamp =
  # latest = true

  ## Set a custom prefetch count for the receiver(s)
  # prefetch_count = 1000

  ## Add an epoch to the receiver(s)
  # epoch = 0

  ## Change to set a custom user agent, "telegraf" is used by default
  # user_agent = "telegraf"

  ## To consume from a specific partition, set the partition_ids option.
  ## An empty array will result in receiving from all partitions.
  # partition_ids = ["0","1"]

  ## Max undelivered messages
  ## This plugin uses tracking metrics, which ensure messages are read to
  ## outputs before acknowledging them to the original broker to ensure data
  ## is not lost. This option sets the maximum messages to read from the
  ## broker that have not been written by an output.
  ##
  ## This value needs to be picked with awareness of the agent's
  ## metric_batch_size value as well. Setting max undelivered messages too high
  ## can result in a constant stream of data batches to the output. While
  ## setting it too low may never flush the broker's messages.
  # max_undelivered_messages = 1000

  ## Set either option below to true to use a system property as timestamp.
  ## You have the choice between EnqueuedTime and IoTHubEnqueuedTime.
  ## It is recommended to use this setting when the data itself has no timestamp.
  # enqueued_time_as_ts = true
  # iot_hub_enqueued_time_as_ts = true

  ## Tags or fields to create from keys present in the application property bag.
  ## These could for example be set by message enrichments in Azure IoT Hub.
  # application_property_tags = []
  # application_property_fields = []

  ## Tag or field name to use for metadata
  ## By default all metadata is disabled
  # sequence_number_field = "SequenceNumber"
  # enqueued_time_field = "EnqueuedTime"
  # offset_field = "Offset"
  # partition_id_tag = "PartitionID"
  # partition_key_tag = "PartitionKey"
  # iot_hub_device_connection_id_tag = "IoTHubDeviceConnectionID"
  # iot_hub_auth_generation_id_tag = "IoTHubAuthGenerationID"
  # iot_hub_connection_auth_method_tag = "IoTHubConnectionAuthMethod"
  # iot_hub_connection_module_id_tag = "IoTHubConnectionModuleID"
  # iot_hub_enqueued_time_field = "IoTHubEnqueuedTime"

  ## Data format to consume.
  ## Each data format has its own unique set of configuration options, read
  ## more about them here:
  ## https://github.com/influxdata/telegraf/blob/master/docs/DATA_FORMATS_INPUT.md
  data_format = "influx"

Cortex

[[outputs.http]]
  ## Cortex Remote Write endpoint
  url = "http://cortex.example.com/api/v1/push"

  ## Use POST to send data
  method = "POST"

  ## Send metrics using Prometheus remote write format
  data_format = "prometheusremotewrite"

  ## Optional HTTP headers for authentication
  # [outputs.http.headers]
  #   X-Scope-OrgID = "your-tenant-id"
  #   Authorization = "Bearer YOUR_API_TOKEN"

  ## Optional TLS configuration
  # tls_ca = "/path/to/ca.pem"
  # tls_cert = "/path/to/cert.pem"
  # tls_key = "/path/to/key.pem"
  # insecure_skip_verify = false

  ## Request timeout
  timeout = "10s"

输入和输出集成示例

Azure 事件中心

  1. 实时物联网设备监控:使用 Azure 事件中心插件监控来自物联网设备(如传感器和执行器)的遥测数据。 通过将设备数据流式传输到监控仪表板,组织可以深入了解系统性能,跟踪使用模式,并快速响应异常情况。 此设置允许对设备进行主动管理,从而提高运营效率并减少停机时间。

  2. 事件驱动的数据处理工作流:利用此插件触发数据处理工作流,以响应从 Azure 事件中心接收的事件。 例如,当新事件到达时,它可以启动数据转换、聚合或存储过程,使企业能够更有效地自动化其工作流。 此集成提高了响应速度并简化了跨系统的运营。

  3. 与分析平台集成:实施此插件以将事件数据注入到 Azure Synapse 或 Power BI 等分析平台。 通过将实时流数据集成到分析工具中,组织可以执行全面的数据分析,推动商业智能工作,并创建信息丰富的交互式可视化,以支持决策制定。

  4. 跨平台数据同步:利用 Azure 事件中心插件在不同的系统或平台之间同步数据流。 通过从 Azure 事件中心消费数据并将其转发到其他系统(如数据库或云存储),组织可以在其整个架构中保持一致且最新的信息,从而实现有凝聚力的数据策略。

Cortex

  1. 统一的多租户监控:使用 Telegraf 从不同的团队或环境收集指标,并将它们推送到带有单独 X-Scope-OrgID 标头的 Cortex。 这实现了每个租户隔离的数据摄取和查询,非常适合托管服务和平台团队。

  2. 将 Prometheus 覆盖范围扩展到边缘设备:在边缘或物联网设备上部署 Telegraf 以收集系统指标,并将它们发送到集中的 Cortex 集群。 即使对于没有本地 Prometheus 抓取器的环境,这种方法也能确保一致的可观察性。

  3. 具有联合租户的全球服务可观察性:通过配置 Telegraf 代理将数据推送到区域 Cortex 集群(每个集群都标记有租户标识符)来聚合来自全球基础设施的指标。 Cortex 处理跨区域的重复数据删除和集中访问。

  4. 自定义应用程序遥测管道:通过 Telegraf 的 exechttp 输入插件收集特定于应用程序的遥测数据,并将其转发到 Cortex。 这使 DevOps 团队能够以可扩展、查询高效的格式监控特定于应用程序的 KPI,同时保持指标按租户或服务进行逻辑分组。

反馈

感谢您成为我们社区的一份子! 如果您有任何一般反馈或在这些页面上发现任何错误,我们欢迎并鼓励您提出意见。 请在 InfluxDB 社区 Slack 中提交您的反馈。

强大的性能,无限的扩展

收集、组织和处理海量高速数据。 当您将任何数据视为时间序列数据时,它都会变得更有价值。 借助 InfluxDB,这个排名第一的时间序列平台旨在与 Telegraf 一起扩展。

查看入门方法

相关集成

HTTP 和 InfluxDB 集成

HTTP 插件从一个或多个 HTTP(S) 端点收集指标。 它支持各种身份验证方法和数据格式的配置选项。

查看集成

Kafka 和 InfluxDB 集成

此插件从 Kafka 读取消息,并允许基于这些消息创建指标。 它支持各种配置,包括不同的 Kafka 设置和消息处理选项。

查看集成

Kinesis 和 InfluxDB 集成

Kinesis 插件允许从 AWS Kinesis 流中读取指标。 它支持多种输入数据格式,并提供带有 DynamoDB 的检查点功能,以实现可靠的消息处理。

查看集成