Salesforce 和 MySQL 集成

强大的性能和简易的集成,由 Telegraf 提供支持,Telegraf 是 InfluxData 构建的开源数据连接器。

info

这不是大规模实时查询的推荐配置。为了进行查询和压缩优化、高速摄取和高可用性,您可能需要考虑 Salesforce 和 InfluxDB。

50 亿+

Telegraf 下载量

#1

时序数据库
来源:DB Engines

10 亿+

InfluxDB 下载量

2,800+

贡献者

目录

强大的性能,无限的扩展

收集、组织和处理海量高速数据。当您将其视为时序数据时,任何数据都更有价值。使用 InfluxDB,第一的时序平台,旨在与 Telegraf 一起扩展。

查看入门方法

输入和输出集成概述

Salesforce Telegraf 插件收集有关 Salesforce 组织中 API 使用情况和限制的关键指标,从而实现对 API 消耗的有效监控和管理。

Telegraf SQL 插件允许您将 Telegraf 的指标直接存储到 MySQL 数据库中,从而更容易分析和可视化收集的指标。

集成详情

Salesforce

Salesforce 插件允许用户收集有关 API 使用限制及其 Salesforce 组织内剩余使用量的指标。通过利用 Salesforce 的 REST API,特别是限制端点,此插件提供了关于 API 使用量已消耗多少以及剩余多少的关键见解。这对于依赖 Salesforce 进行运营的组织尤其重要,因为超出 API 限制可能会中断服务并阻碍业务流程。该插件将数据处理成结构化格式,其中包含各种 API 操作的最大值和剩余值,使团队可以更轻松地监控其使用情况并进行相应的计划。提供的配置允许用户自定义其凭据、环境类型(沙盒或生产环境)和 API 版本,从而确保在不同部署场景中的灵活性。

MySQL

Telegraf 的 SQL 输出插件旨在通过基于传入指标动态创建表和列,将指标数据无缝写入 SQL 数据库。当配置为 MySQL 时,该插件利用 go-sql-driver/mysql,这需要启用 ANSI_QUOTES SQL 模式以确保正确处理带引号的标识符。这种动态模式创建方法确保每个指标都存储在其自己的表中,其结构源自其字段和标签,从而提供系统性能的详细、带时间戳的记录。该插件的灵活性使其能够处理高吞吐量环境,使其成为需要强大、精细的指标日志记录和历史数据分析的场景的理想选择。

配置

Salesforce

[[inputs.salesforce]]
  ## specify your credentials
  ##
  username = "your_username"
  password = "your_password"
  ##
  ## (optional) security token
  # security_token = "your_security_token"
  ##
  ## (optional) environment type (sandbox or production)
  ## default is: production
  ##
  # environment = "production"
  ##
  ## (optional) API version (default: "39.0")
  ##
  # version = "39.0"

MySQL

[[outputs.sql]]
  ## Database driver
  ## Valid options: mssql (Microsoft SQL Server), mysql (MySQL), pgx (Postgres),
  ##  sqlite (SQLite3), snowflake (snowflake.com) clickhouse (ClickHouse)
  driver = "mysql"

  ## Data source name
  ## The format of the data source name is different for each database driver.
  ## See the plugin readme for details.
  data_source_name = "username:password@tcp(host:port)/dbname"

  ## Timestamp column name
  timestamp_column = "timestamp"

  ## Table creation template
  ## Available template variables:
  ##  {TABLE} - table name as a quoted identifier
  ##  {TABLELITERAL} - table name as a quoted string literal
  ##  {COLUMNS} - column definitions (list of quoted identifiers and types)
  table_template = "CREATE TABLE {TABLE}({COLUMNS})"

  ## Table existence check template
  ## Available template variables:
  ##  {TABLE} - tablename as a quoted identifier
  table_exists_template = "SELECT 1 FROM {TABLE} LIMIT 1"

  ## Initialization SQL
  init_sql = "SET sql_mode='ANSI_QUOTES';"

  ## Maximum amount of time a connection may be idle. "0s" means connections are
  ## never closed due to idle time.
  connection_max_idle_time = "0s"

  ## Maximum amount of time a connection may be reused. "0s" means connections
  ## are never closed due to age.
  connection_max_lifetime = "0s"

  ## Maximum number of connections in the idle connection pool. 0 means unlimited.
  connection_max_idle = 2

  ## Maximum number of open connections to the database. 0 means unlimited.
  connection_max_open = 0

  ## NOTE: Due to the way TOML is parsed, tables must be at the END of the
  ## plugin definition, otherwise additional config options are read as part of the
  ## table

  ## Metric type to SQL type conversion
  ## The values on the left are the data types Telegraf has and the values on
  ## the right are the data types Telegraf will use when sending to a database.
  ##
  ## The database values used must be data types the destination database
  ## understands. It is up to the user to ensure that the selected data type is
  ## available in the database they are using. Refer to your database
  ## documentation for what data types are available and supported.
  #[outputs.sql.convert]
  #  integer              = "INT"
  #  real                 = "DOUBLE"
  #  text                 = "TEXT"
  #  timestamp            = "TIMESTAMP"
  #  defaultvalue         = "TEXT"
  #  unsigned             = "UNSIGNED"
  #  bool                 = "BOOL"
  #  ## This setting controls the behavior of the unsigned value. By default the
  #  ## setting will take the integer value and append the unsigned value to it. The other
  #  ## option is "literal", which will use the actual value the user provides to
  #  ## the unsigned option. This is useful for a database like ClickHouse where
  #  ## the unsigned value should use a value like "uint64".
  #  # conversion_style = "unsigned_suffix"

输入和输出集成示例

Salesforce

  1. 监控 API 限制使用情况以进行扩展决策:使用 Salesforce 插件随时间跟踪 API 限制使用情况,并就何时扩展 Salesforce 资源做出明智的决策。通过可视化 API 消耗模式,组织可以预测高峰使用时间,从而使其能够主动调整其基础设施或根据需要请求更高的限制。这种优化可以提高性能并减少关键业务运营期间的停机时间。

  2. API 限制超出自动警报系统:将此插件与通知系统集成,以便在 API 使用量接近临界限制时向团队发出警报。此设置不仅确保团队得到主动通知以防止中断,还有助于维护运营连续性和客户满意度。警报可以配置为触发自动脚本,这些脚本可以调整负载或相应地通知利益相关者。

  3. 多个 Salesforce 的比较分析:利用 Salesforce 输入插件从不同部门或业务部门的多个 Salesforce 实例收集指标。通过集中这些数据,组织可以进行比较分析,以识别可能比其他部门更频繁超出其 API 限制的部门。这有助于进行有针对性的讨论和制定策略,以平衡整个组织的 API 使用量,从而提高资源分配和效率。

MySQL

  1. 实时 Web 分析存储:利用该插件捕获网站性能指标并将其存储在 MySQL 中。此设置使团队能够监控用户交互、分析流量模式并根据实时数据洞察动态调整站点功能。

  2. IoT 设备监控:利用该插件从 IoT 传感器网络收集指标并将其记录到 MySQL 数据库中。此用例支持对设备健康状况和性能的持续监控,从而实现预测性维护和对异常的即时响应。

  3. 金融交易日志记录:记录具有精确时间戳的高频金融交易数据。这种方法支持强大的审计跟踪、实时欺诈检测以及全面的历史分析,以用于合规性和报告目的。

  4. 应用程序性能基准测试:将该插件与应用程序性能监控系统集成,以将指标记录到 MySQL 中。这有助于进行详细的基准测试和长期趋势分析,使组织能够识别性能瓶颈并有效地优化资源分配。

反馈

感谢您成为我们社区的一份子!如果您有任何一般性反馈或在这些页面上发现了任何错误,我们欢迎并鼓励您提出意见。请在 InfluxDB 社区 Slack 中提交您的反馈。

强大的性能,无限的扩展

收集、组织和处理海量高速数据。当您将其视为时序数据时,任何数据都更有价值。使用 InfluxDB,第一的时序平台,旨在与 Telegraf 一起扩展。

查看入门方法

相关集成

HTTP 和 InfluxDB 集成

HTTP 插件从一个或多个 HTTP(S) 端点收集指标。它支持各种身份验证方法和数据格式的配置选项。

查看集成

Kafka 和 InfluxDB 集成

此插件从 Kafka 读取消息,并允许基于这些消息创建指标。它支持各种配置,包括不同的 Kafka 设置和消息处理选项。

查看集成

Kinesis 和 InfluxDB 集成

Kinesis 插件允许从 AWS Kinesis 流中读取指标。它支持多种输入数据格式,并提供使用 DynamoDB 的检查点功能,以实现可靠的消息处理。

查看集成