Amazon ECS 和 Elasticsearch 集成

强大的性能和简单的集成,由 InfluxData 构建的开源数据连接器 Telegraf 提供支持。

info

这不是大规模实时查询的推荐配置。为了查询和压缩优化、高速摄取和高可用性,您可能需要考虑 Amazon ECS 和 InfluxDB

50亿+

Telegraf 下载量

#1

时序数据库
来源:DB Engines

10亿+

InfluxDB 下载量

2,800+

贡献者

目录

强大的性能,无限的扩展能力

收集、组织和处理海量高速数据。当您将任何数据视为时序数据时,它会更有价值。使用 InfluxDB,第一的时序平台,旨在通过 Telegraf 进行扩展。

查看入门方法

输入和输出集成概述

Amazon ECS 输入插件使 Telegraf 能够从 AWS ECS 容器收集指标,从而提供有关容器性能和资源利用率的详细见解。

Telegraf Elasticsearch 插件无缝地将指标发送到 Elasticsearch 服务器。该插件处理模板创建和动态索引管理,并支持各种 Elasticsearch 特定的功能,以确保数据格式正确,以便存储和检索。

集成详情

Amazon ECS

适用于 Telegraf 的 Amazon ECS 插件旨在从 AWS Fargate 或 EC2 实例上运行的 ECS (Elastic Container Service) 任务收集指标。通过利用 ECS 元数据和统计 API 端点(v2 和 v3),它可以获取有关任务中容器性能和运行状况的实时信息。此插件在与检查的工作负载相同的任务中运行,确保可以无缝访问元数据和统计信息。值得注意的是,它结合了 ECS 特有的功能,使其与 Docker 输入插件区分开来,例如处理独特的 ECS 元数据格式和统计信息。用户可以包含或排除特定容器,并调整要监视的容器状态,以及为 ECS 标签定义标签选项。这种灵活性允许定制监控体验,以满足 ECS 环境的特定需求,从而增强对容器化应用程序的可观察性和控制。

Elasticsearch

此插件将指标写入 Elasticsearch,这是一个分布式 RESTful 搜索和分析引擎,能够以近乎实时的速度存储大量数据。它旨在处理 Elasticsearch 5.x 到 7.x 版本,并利用其动态模板功能来正确管理数据类型映射。该插件支持高级功能,例如模板管理、动态索引命名以及与 OpenSearch 的集成。它还允许配置 Elasticsearch 节点的身份验证和运行状况监控。

配置

Amazon ECS

[[inputs.ecs]]
  # endpoint_url = ""
  # container_name_include = []
  # container_name_exclude = []
  # container_status_include = []
  # container_status_exclude = []
  ecs_label_include = [ "com.amazonaws.ecs.*" ]
  ecs_label_exclude = []
  # timeout = "5s"

[[inputs.ecs]]
  endpoint_url = "http://169.254.170.2"
  # container_name_include = []
  # container_name_exclude = []
  # container_status_include = []
  # container_status_exclude = []
  ecs_label_include = [ "com.amazonaws.ecs.*" ]
  ecs_label_exclude = []
  # timeout = "5s"

Elasticsearch


[[outputs.elasticsearch]]
  ## The full HTTP endpoint URL for your Elasticsearch instance
  ## Multiple urls can be specified as part of the same cluster,
  ## this means that only ONE of the urls will be written to each interval
  urls = [ "http://node1.es.example.com:9200" ] # required.
  ## Elasticsearch client timeout, defaults to "5s" if not set.
  timeout = "5s"
  ## Set to true to ask Elasticsearch a list of all cluster nodes,
  ## thus it is not necessary to list all nodes in the urls config option
  enable_sniffer = false
  ## Set to true to enable gzip compression
  enable_gzip = false
  ## Set the interval to check if the Elasticsearch nodes are available
  ## Setting to "0s" will disable the health check (not recommended in production)
  health_check_interval = "10s"
  ## Set the timeout for periodic health checks.
  # health_check_timeout = "1s"
  ## HTTP basic authentication details.
  ## HTTP basic authentication details
  # username = "telegraf"
  # password = "mypassword"
  ## HTTP bearer token authentication details
  # auth_bearer_token = "eyJhbGciOiJIUzI1NiIsInR5cCI6IkpXVCJ9"

  ## Index Config
  ## The target index for metrics (Elasticsearch will create if it not exists).
  ## You can use the date specifiers below to create indexes per time frame.
  ## The metric timestamp will be used to decide the destination index name
  # %Y - year (2016)
  # %y - last two digits of year (00..99)
  # %m - month (01..12)
  # %d - day of month (e.g., 01)
  # %H - hour (00..23)
  # %V - week of the year (ISO week) (01..53)
  ## Additionally, you can specify a tag name using the notation {{tag_name}}
  ## which will be used as part of the index name. If the tag does not exist,
  ## the default tag value will be used.
  # index_name = "telegraf-{{host}}-%Y.%m.%d"
  # default_tag_value = "none"
  index_name = "telegraf-%Y.%m.%d" # required.

  ## Optional Index Config
  ## Set to true if Telegraf should use the "create" OpType while indexing
  # use_optype_create = false

  ## Optional TLS Config
  # tls_ca = "/etc/telegraf/ca.pem"
  # tls_cert = "/etc/telegraf/cert.pem"
  # tls_key = "/etc/telegraf/key.pem"
  ## Use TLS but skip chain & host verification
  # insecure_skip_verify = false

  ## Template Config
  ## Set to true if you want telegraf to manage its index template.
  ## If enabled it will create a recommended index template for telegraf indexes
  manage_template = true
  ## The template name used for telegraf indexes
  template_name = "telegraf"
  ## Set to true if you want telegraf to overwrite an existing template
  overwrite_template = false
  ## If set to true a unique ID hash will be sent as sha256(concat(timestamp,measurement,series-hash)) string
  ## it will enable data resend and update metric points avoiding duplicated metrics with different id's
  force_document_id = false

  ## Specifies the handling of NaN and Inf values.
  ## This option can have the following values:
  ##    none    -- do not modify field-values (default); will produce an error if NaNs or infs are encountered
  ##    drop    -- drop fields containing NaNs or infs
  ##    replace -- replace with the value in "float_replacement_value" (default: 0.0)
  ##               NaNs and inf will be replaced with the given number, -inf with the negative of that number
  # float_handling = "none"
  # float_replacement_value = 0.0

  ## Pipeline Config
  ## To use a ingest pipeline, set this to the name of the pipeline you want to use.
  # use_pipeline = "my_pipeline"
  ## Additionally, you can specify a tag name using the notation {{tag_name}}
  ## which will be used as part of the pipeline name. If the tag does not exist,
  ## the default pipeline will be used as the pipeline. If no default pipeline is set,
  ## no pipeline is used for the metric.
  # use_pipeline = "{{es_pipeline}}"
  # default_pipeline = "my_pipeline"
  #
  # Custom HTTP headers
  # To pass custom HTTP headers please define it in a given below section
  # [outputs.elasticsearch.headers]
  #    "X-Custom-Header" = "custom-value"

  ## Template Index Settings
  ## Overrides the template settings.index section with any provided options.
  ## Defaults provided here in the config
  # template_index_settings = {
  #   refresh_interval = "10s",
  #   mapping.total_fields.limit = 5000,
  #   auto_expand_replicas = "0-1",
  #   codec = "best_compression"
  # }

输入和输出集成示例

Amazon ECS

  1. 动态容器监控:使用 Amazon ECS 插件在自动扩展的 ECS 架构中动态监控容器运行状况。当新容器启动或停止时,该插件将自动调整其收集的指标,确保有效地捕获每个容器的性能数据,而无需手动配置。

  2. 自定义资源分配警报:实施 ECS 插件以建立每个容器的资源利用率阈值。通过与通知系统集成,团队可以在容器的 CPU 或内存使用量超过预定义限制时收到警报,从而实现主动资源管理并保持应用程序性能。

  3. 成本优化仪表板:利用从 ECS 插件收集的指标创建一个仪表板,该仪表板可视化与每个容器关联的资源利用率和成本。这种洞察使组织能够识别未充分利用的资源,优化与其容器基础设施相关的成本,从而提高云运营中的财务效率。

  4. 高级容器安全监控:结合安全工具使用此插件,以监控 ECS 容器指标中的异常情况。通过持续分析使用模式,可以检测到任何突然的峰值或异常行为,从而触发自动安全响应并维护系统完整性。

Elasticsearch

  1. 基于时间的索引:使用此插件在 Elasticsearch 中存储指标,以根据收集的时间为每个指标编制索引。例如,CPU 指标可以存储在名为 telegraf-2023.01.01 的每日索引中,从而可以轻松进行基于时间的查询和保留策略。

  2. 动态模板管理:利用模板管理功能自动创建针对您的指标定制的自定义模板。这使您可以定义如何索引和分析不同的字段,而无需手动配置 Elasticsearch,从而确保用于查询的最佳数据结构。

  3. OpenSearch 兼容性:如果您正在使用 AWS OpenSearch,则可以通过激活兼容模式来配置此插件以无缝工作,从而确保您现有的 Elasticsearch 客户端保持功能,并与较新的集群设置兼容。

反馈

感谢您成为我们社区的一份子!如果您有任何一般性反馈或在这些页面上发现任何错误,我们欢迎并鼓励您提供意见。请在 InfluxDB 社区 Slack 中提交您的反馈。

强大的性能,无限的扩展能力

收集、组织和处理海量高速数据。当您将任何数据视为时序数据时,它会更有价值。使用 InfluxDB,第一的时序平台,旨在通过 Telegraf 进行扩展。

查看入门方法

相关集成

HTTP 和 InfluxDB 集成

HTTP 插件从一个或多个 HTTP(S) 端点收集指标。它支持各种身份验证方法和数据格式的配置选项。

查看集成

Kafka 和 InfluxDB 集成

此插件从 Kafka 读取消息,并允许根据这些消息创建指标。它支持各种配置,包括不同的 Kafka 设置和消息处理选项。

查看集成

Kinesis 和 InfluxDB 集成

Kinesis 插件允许从 AWS Kinesis 流读取指标。它支持多种输入数据格式,并提供带有 DynamoDB 的检查点功能,以实现可靠的消息处理。

查看集成