附录 F. Kafka Connect 配置参数


config.storage.topic

type: string
Importance: high

存储连接器配置的 Kafka 主题的名称。

group.id

type: string
Importance: high

标识此 worker 所属的 Connect 集群组的唯一字符串。

key.converter

type: class
Importance: high

converter 类,用于在 Kafka Connect 格式和写入 Kafka 的序列化表单之间进行转换。这控制写入或从 Kafka 读取的消息中的密钥格式,因为它独立于连接器,允许任何连接器使用任何序列化格式。常见格式示例包括 JSON 和 Avro。

offset.storage.topic

type: string
Importance: high

存储连接器偏移的 Kafka 主题的名称。

status.storage.topic

type: string
Importance: high

存储连接器和任务状态的 Kafka 主题的名称。

value.converter

type: class
Importance: high

converter 类,用于在 Kafka Connect 格式和写入 Kafka 的序列化表单之间进行转换。这控制写入或从 Kafka 读取的消息中的值格式,因为它独立于连接器,允许任何连接器使用任何序列化格式。常见格式示例包括 JSON 和 Avro。

bootstrap.servers

type: list
Default: localhost:9092
Importance: high

用于建立与 Kafka 集群的初始连接的主机/端口对列表。客户端将使用与此处为 bootstrapping 指定的服务器一样的所有服务器,此列表只会影响用于发现整套服务器的初始主机。这个列表应该采用 host1:port1,host2:port2,…​ 格式。由于这些服务器仅用于初始连接来发现完整的集群成员身份(可能会动态更改),因此该列表不需要包含完整的服务器集合(尽管,如果服务器停机,您可能希望多台服务器)。

heartbeat.interval.ms

type: int
Default: 3000(3 秒)
Importance: high

在使用 Kafka 的组管理设施时,心跳到组协调员之间预计需要的时间。heartbeats 用于确保 worker 的会话保持活动,并促进新成员加入或离开组时重新平衡。该值必须小于 session.timeout.ms,但通常应不高于该值的 1/3。它甚至可以调整,以控制正常重新平衡的预期时间。

rebalance.timeout.ms

type: int
Default: 60000(1 分钟)
Importance: high

每个 worker 开始重新平衡后加入组的最大允许时间。这基本上限制了所有任务刷新任何待处理数据和提交偏移所需的时间。如果超过超时时间,则 worker 将从组中移除,这会导致偏移提交失败。

session.timeout.ms

type: int
Default: 10000(10 秒)
Importance: high

用于检测 worker 故障的超时时间。工作程序会定期发送心跳,以向代理表明其存活度。如果代理没有在此会话超时前收到心跳,代理会从组中删除 worker 并启动重新平衡。请注意,该值必须处于允许范围内,如 group.min.session.timeout.msgroup.max.session.timeout.ms 代理配置中所配置。

ssl.key.password

type: password
Default: null
Importance: high

密钥存储文件中私钥的密码,或者在 'ssl.keystore.key 中指定的 PEM 密钥的密码。客户端只有在配置了双向身份验证时才需要此参数。

ssl.keystore.certificate.chain

type: password
Default: null
Importance: high

以 'ssl.keystore.type" 指定的格式的证书链。默认 SSL 引擎工厂仅支持 PEM 格式及 X.509 证书列表。

ssl.keystore.key

type: password
Default: null
Importance: high

以 'ssl.keystore.type" 指定的格式的私钥。默认 SSL 引擎工厂仅支持使用 PKCS#8 密钥的 PEM 格式。如果密钥加密,则必须使用 'ssl.key.password' 指定密钥密码。

ssl.keystore.location

type: string
Default: null
Importance: high

密钥存储文件的位置。这对于客户端而言是可选的,可用于进行客户端的双向身份验证。

ssl.keystore.password

type: password
Default: null
Importance: high

存储密钥存储文件的密码。这对客户端是可选的,并且仅在配置了 'ssl.keystore.location' 时才需要。PEM 格式不支持密钥存储密码。

ssl.truststore.certificates

type: password
Default: null
Importance: high

以 'ssl.truststore.type" 指定的格式的可信证书。默认 SSL 引擎工厂仅支持具有 X.509 证书的 PEM 格式。

ssl.truststore.location

type: string
Default: null
Importance: high

信任存储文件的位置。

ssl.truststore.password

type: password
Default: null
Importance: high

信任存储文件的密码。如果未设置密码,仍然将使用配置的信任存储文件,但完整性检查将被禁用。PEM 格式不支持信任存储密码。

client.dns.lookup

type: string
Default: use_all_dns_ips
Valid Values: [default, use_all_dns_ips, resolve_canonical_bootstrap_servers_only]
Importance: media

控制客户端如何使用 DNS 查找。如果设置为 use_all_dns_ips,按顺序连接到每个返回的 IP 地址,直到建立成功连接为止。断开连接后使用下一个 IP。所有 IP 都使用一次后,客户端会再次从主机名解析 IP(JVM 和 OS 缓存 DNS 名称查找)。如果设置为 resolve_canonical_bootstrap_servers_only,请将每个 bootstrap 地址解析为规范名称列表。bootstrap 阶段后,其行为与 use_all_dns_ips 相同。如果设置为 default (已弃用),请尝试连接到查询返回的第一个 IP 地址,即使查找返回多个 IP 地址。

connections.max.idle.ms

type: long
Default: 540000(9 分钟)
Importance: medium

在此配置指定的毫秒数后关闭空闲连接。

connector.client.config.override.policy

type: string
Default: None
Importance: medium

ConnectorClientConfigOverridePolicy 的类名称或别名。定义连接器可以覆盖哪些客户端配置。默认是 None。框架中可能的其他策略包括 AllPrincipal

receive.buffer.bytes

type: int
Default: 32768(32 kibibytes)
Valid Values: [0,…​]
Importance: media

读取数据时使用的 TCP 接收缓冲区(SO_RCVBUF)的大小。如果值为 -1,将使用 OS 默认值。

request.timeout.ms

type: int
Default: 40000(40 秒)
Valid Values: [0,…​]
Importance: medium

配置控制客户端等待请求响应的最大时间。如果在超时前未收到响应,客户端将在必要时重新发送请求,或者在重试结束时失败请求。

sasl.client.callback.handler.class

type: class
Default: null
Importance: medium

实施 AuthenticateCallbackHandler 接口的 SASL 客户端回调处理程序类的完全限定名称。

sasl.jaas.config

type: password
Default: null
Importance: medium

用于 SASL 连接的 JAAS 登录上下文参数,采用 JAAS 配置文件使用的格式。JAAS 配置文件格式 如下所述。该值的格式为: loginModuleClass controlFlag (optionName=optionValue)*;。对于代理,配置必须加上监听器前缀和 SASL 机制名称(小写)。例如,listener.name.sasl_ssl.scram-sha-256.sasl.jaas.config=com.example.ScramLoginModule 需要;。

sasl.kerberos.service.name

type: string
Default: null
Importance: medium

Kafka 运行的 Kerberos 主体名称。这可以在 Kafka 的 JAAS 配置或 Kafka 的 config 中定义。

sasl.login.callback.handler.class

type: class
Default: null
Importance: medium

实施 AuthenticateCallbackHandler 接口的 SASL 登录回调处理程序类的完全限定名称。对于代理,登录回调处理程序配置必须以小写的监听器前缀和 SASL 机制名称作为前缀。例如,listener.name.sasl_ssl.scram-sha-256.sasl.login.callback.handler.class=com.example.CustomScramLoginCallbackHandler。

sasl.login.class

type: class
Default: null
Importance: medium

实施登录接口的类的完全限定名称。对于代理,登录配置必须加上监听器前缀和 SASL 机制名称(小写)。For example, listener.name.sasl_ssl.scram-sha-256.sasl.login.class=com.example.CustomScramLogin.

sasl.mechanism

type: string
Default: GSSAPI
Importance: medium

用于客户端连接的 SASL 机制.这可能是提供安全提供程序的任何机制。GSSAPI 是默认机制。

security.protocol

type: string
Default: PLAINTEXT
Importance: medium

用于与代理通信的协议.有效值为:PLAINTEXT、SSL、SASL_PLAINTEXT、SASL_SSL.

send.buffer.bytes

type: int
Default: 131072(128 Kbibytes)
Valid Values: [0,…​]
Importance: media

发送数据时使用的 TCP 发送缓冲区(SO_SNDBUF)的大小。如果值为 -1,将使用 OS 默认值。

ssl.enabled.protocols

type: list
Default: TLSv1.2,TLSv1.3
Importance: medium

为 SSL 连接启用的协议列表。使用 Java 11 或更新版本运行时,默认为 'TLSv1.2,TLSv1.3',否则为 'TLSv1.2'。使用 Java 11 的默认值时,如果支持 TLSv1.3,否则客户端和服务器都支持 TLSv1.3,否则客户端和服务器都将首选 TLSv1.2(假设至少支持 TLSv1.2)。对于大多数情况,此默认值应当适用。另请参阅 ssl.protocol 的配置文档。

ssl.keystore.type

type: string
Default: JKS
Importance: medium

密钥存储文件的文件格式。这是客户端的可选选项。

ssl.protocol

type: string
Default: TLSv1.3
Importance: medium

用于生成 SSLContext 的 SSL 协议。使用 Java 11 或更新版本运行时,默认为 'TLSv1.3',否则为 'TLSv1.2'。这个值应该适用于大多数用例。最近 JVM 中的允许值是 'TLSv1.2' 和 'TLSv1.3'。'TLS'、'TLSv1.1'、'SSL'、'SSLv2' 和 'SSLv3' 可能会在旧的 JVM 中受到支持,但会因为已知的安全漏洞而鼓励使用它们。使用这个配置的默认值和 'ssl.enabled.protocols',如果服务器不支持 'TLSv1.3',客户端将降级为 'TLSv1.2'。如果此配置被设置为 'TLSv1.2',客户端将不会使用 'TLSv1.3',即使它是 ssl.enabled.protocols 中的值之一,服务器只支持 'TLSv1.3'。

ssl.provider

type: string
Default: null
Importance: medium

用于 SSL 连接的安全提供商名称。默认值是 JVM 的默认安全提供程序。

ssl.truststore.type

type: string
Default: JKS
Importance: medium

信任存储文件的文件格式。

worker.sync.timeout.ms

type: int
Default: 3000(3 秒)
Importance: medium

当工作程序与其他工作程序不同步且需要重新同步配置时,请等待这一时间再放弃、离开组并在重新加入前等待后端。

worker.unsync.backoff.ms

type: int
Default: 300000(5 分钟)
Importance: medium

当 worker 无法与其他 worker 同步且无法在 worker.sync.timeout.ms 中跟上时,在重新加入前保留连接集群很长时间。

access.control.allow.methods

type: string
Default: ""
Importance: low

设置 Access-Control-Allow-Methods 标头来设置跨原始请求支持的方法。Access-Control-Allow-Methods 标头的默认值允许对 GET、POST 和 HEAD 的跨源请求。

access.control.allow.origin

type: string
Default: ""
Importance: low

为 REST API 请求将 Access-Control-Allow-Origin 标头设置为 Access-Control-Allow-Origin 标头。要启用跨源访问,请将其设置为允许访问 API 的应用程序域,或 '*' 以允许从任何域进行访问。默认值仅允许从 REST API 域进行访问。

admin.listeners

type: list
Default: null
Valid Values: org.apache.kafka.connect.runtime.WorkerConfig$AdminListenersValidator@546a03af
Importance: low

管理 REST API 将侦听的逗号分隔 URI 的列表。支持的协议有 HTTP 和 HTTPS。空或空字符串将禁用此功能。默认行为是使用常规监听程序(通过"listeners"属性指定)。

client.id

type: string
Default: ""
Importance: low

在发出请求时要传递给服务器的 id 字符串。这样做的目的是通过允许逻辑应用程序名称包含在服务器端请求日志记录中,跟踪请求源,而不仅仅是 ip/port。

config.providers

type: list
Default: ""
Importance: low

以逗号分隔的 ConfigProvider 类名称,按照指定的顺序载入和使用。通过实施接口 ConfigProvider,您可以替换连接器配置中的变量引用,如外部化 secret。

config.storage.replication.factor

type: short
Default: 3
Valid Values: Positive number 不大于 Kafka 集群中的代理数量,或 -1 用于使用代理的默认
Importance: low

创建配置存储主题时使用的复制因素。

connect.protocol

type: string
Default: sessioned
Valid Values: [eager, compatible, sessioned]
Importance: low

Kafka Connect 协议的兼容性模式。

header.converter

type: class
Default: org.apache.kafka.connect.storage.SimpleHeaderConverter
Importance: low

HeaderConverter 类,用于在 Kafka Connect 格式和写入 Kafka 的序列化表单之间进行转换。这会控制写入或从 Kafka 读取的消息中的标头值格式,因为它独立于连接器,允许任何连接器使用任何序列化格式。常见格式示例包括 JSON 和 Avro。默认情况下,SimpleHeaderConverter 使用 SimpleHeaderConverter 将标头值序列化为字符串,并通过给出架构来对它们进行反序列化。

inter.worker.key.generation.algorithm

type: string
Default: HmacSHA256
Valid Values: worker JVM
Importance: low

用于生成内部请求密钥的算法。

inter.worker.key.size

type: int
Default: null
Importance: low

用于签署内部请求的密钥大小(以位为单位)。如果为 null,则使用密钥生成算法的默认密钥大小。

inter.worker.key.ttl.ms

type: int
Default: 3600000(1 hour)
Valid Values: [0,…​,2147483647]
Importance: low

生成会话密钥的 TTL,用于内部请求验证(以毫秒为单位)。

inter.worker.signature.algorithm

type: string
Default: HmacSHA256
Valid Values: worker JVM
Importance 支持的任何 MAC算法: low

用于为内部请求签名的算法。

inter.worker.verification.algorithms

type: list
Default: HmacSHA256
Valid Values: 一个或多个 MAC 算法列表,每个 MAC 算法都受到 worker JVM
Importance: low 的支持

用于验证内部请求的允许算法列表。

internal.key.converter

type: class
Default: org.apache.kafka.connect.json.JsonConverter
Importance: low

converter 类,用于在 Kafka Connect 格式和写入 Kafka 的序列化表单之间进行转换。这控制写入或从 Kafka 读取的消息中的密钥格式,因为它独立于连接器,允许任何连接器使用任何序列化格式。常见格式示例包括 JSON 和 Avro。此设置控制框架用于内部图书保存数据的格式,如配置和偏移,因此用户通常可以使用任何正常运作的转换实施。弃用; 将在以后的版本中删除。

internal.value.converter

type: class
Default: org.apache.kafka.connect.json.JsonConverter
Importance: low

converter 类,用于在 Kafka Connect 格式和写入 Kafka 的序列化表单之间进行转换。这控制写入或从 Kafka 读取的消息中的值格式,因为它独立于连接器,允许任何连接器使用任何序列化格式。常见格式示例包括 JSON 和 Avro。此设置控制框架用于内部图书保存数据的格式,如配置和偏移,因此用户通常可以使用任何正常运作的转换实施。弃用; 将在以后的版本中删除。

listeners

type: list
Default: null
Importance: low

REST API 将侦听的以逗号分隔的 URI 列表。支持的协议有 HTTP 和 HTTPS。将 hostname 指定为 0.0.0.0,以绑定到所有接口。将主机名留空以绑定到默认接口。法律监听器列表示例:HTTP://myhost:8083,HTTPS://myhost:8084.

metadata.max.age.ms

type: long
Default: 300000(5 分钟)
Valid Values: [0,…​]
Importance: low

在经过这一时间之后,我们强制刷新元数据,即使我们尚未看到任何分区领导变化来主动发现任何新的代理或分区。

metric.reporters

type: list
Default: ""
Importance: low

用作指标报告器的类的列表。实施 org.apache.kafka.common.metrics.MetricsReporter 接口允许在类中插入,这些类将通知新指标创建。JmxReporter 始终包含在内,用于注册 JMX 统计数据。

metrics.num.samples

type: int
Default: 2
Valid Values: [1,…​]
Importance: low

维护到计算指标的示例数量。

metrics.recording.level

type: string
Default: INFO
Valid Values: [INFO, DEBUG]
Importance: low

指标的最高记录级别。

metrics.sample.window.ms

type: long
Default: 30000(30 秒)
Valid Values: [0,…​]
Importance: low

指标样本计算完的时间窗口。

offset.flush.interval.ms

type: long
Default: 60000(1 分钟)
Importance: low

尝试为任务提交偏移的时间间隔。

offset.flush.timeout.ms

type: long
Default: 5000(5 秒)
Importance: low

等待记录清空和分区偏移数据在取消进程并恢复要在将来的尝试中提交的偏移数据的最大毫秒数。

offset.storage.partitions

type: int
Default: 25
Valid Values: Positive number 或 -1 使用代理的默认
Importance: low

创建偏移存储主题时使用的分区数量。

offset.storage.replication.factor

type: short
Default: 3
Valid Values: Positive number 不大于 Kafka 集群中的代理数量,或 -1 用于使用代理的默认
Importance: low

创建偏移存储主题时使用的复制因素。

plugin.path

type: list
Default: null
Importance: low

使用逗号(,)分隔的路径列表,其中包含插件(连接器、转换器、转换器)。该列表应当包含顶级目录,这些目录包括:a)立即包含插件及其依赖项 b 的 jars 的目录,其带有插件及其依赖项的 uber-jars,立即包含插件类别及其依赖项的软件包目录结构的目录 注意:符号链接将跟踪以发现依赖关系或插件。示例:plugin.path=/usr/local/share/java,/usr/local/share/kafka/plugins,/opt/connectors 不会在此属性中使用配置提供程序变量,因为原始路径由 worker 的扫描程序用于初始化并用于替换变量。

reconnect.backoff.max.ms

type: long
Default: 1000(1 second)
Valid Values: [0,…​]
Importance: low

重新连接到一个代理时需要等待的时间上限(以毫秒为单位),且该代理重复无法连接。如果提供,每个主机的 backoff 都会为每个连续连接失败呈指数级增长,最高可达此最大值。计算 backoff 后,添加 20% 的随机 jitter,以避免连接风暴。

reconnect.backoff.ms

type: long
Default: 50
Valid Values: [0,…​]
Importance: low

尝试重新连接到给定主机前等待的基本时间。这可避免在紧凑循环中重复连接主机。这个后端适用于客户端对代理的所有连接尝试。

response.http.headers.config

type: string
Default: ""
Valid Values: Comma- isolated header 规则,其中每个标头规则的格式为 '[action] [header name]:[header value]',如果标头规则的任何部分包含逗号
Importance: low,可以选择用双引号括起。

REST API HTTP 响应标头的规则。

rest.advertised.host.name

type: string
Default: null
Importance: low

如果设置此设置,这是将提供给其他要连接的 worker 的主机名。

rest.advertised.listener

type: string
Default: null
Importance: low

设置公告的监听程序(HTTP 或 HTTPS),后者将提供给其他工作程序使用。

rest.advertised.port

type: int
Default: null
Importance: low

如果设置此设置,则这是将给予其他工作程序连接的端口。

rest.extension.classes

type: list
Default: ""
Importance: low

以逗号分隔的 ConnectRestExtension 类名称,按照指定的顺序载入和调用。通过实施接口 ConnectRestExtension,您可以注入 Connect 的 REST API 用户定义的资源,如过滤器。通常用于添加自定义功能,如日志记录、安全性等。

rest.host.name

type: string
Default: null
Importance: low

REST API 的主机名。如果设置此设置,它将仅绑定到此接口。

rest.port

type: int
Default: 8083
Importance: low

REST API 侦听的端口。

retry.backoff.ms

type: long
Default: 100
Valid Values: [0,…​]
Importance: low

尝试将失败的请求重试到给定主题分区前等待的时间。这可避免在某些故障情况下在紧凑循环中重复发送请求。

sasl.kerberos.kinit.cmd

type: string
Default: /usr/bin/kinit
Importance: low

Kerberos kinit 命令路径.

sasl.kerberos.min.time.before.relogin

type: long
Default: 60000
Importance: low

刷新尝试之间的登录线程睡眠时间.

sasl.kerberos.ticket.renew.jitter

type: double
Default: 0.05
Importance: low

添加到续订时间的随机 jitter 百分比.

sasl.kerberos.ticket.renew.window.factor

type: double
Default: 0.8
Importance: low

登录线程将休眠,直到达到上次刷新到票据过期时间的指定窗口因素,此时将尝试续订票据。

sasl.login.refresh.buffer.seconds

type: short
Default: 300
Valid Values: [0,…​,3600]
Importance: low

刷新凭证时凭据过期前的缓冲时间(以秒为单位)。否则,如果刷新的时间比缓冲区秒数接近到期,则将移动刷新以尽可能保留缓冲区时间。法律值介于 0 到 3600(1 小时)之间;如果没有指定值,则使用默认值 300(5 分钟)。如果总和超过凭证剩余生命周期,则这个值和 sasl.login.refresh.min.period.seconds 都会被忽略。目前仅适用于 OAUTHBEARER。

sasl.login.refresh.min.period.seconds

type: short
Default: 60
Valid Values: [0,…​,900]
Importance: low

登录刷新线程在刷新凭据前所需的最短时间(以秒为单位)。法律值介于 0 到 900(15 分钟)之间;如果没有指定值,则使用默认值 60(1 分钟)。如果值和 sasl.login.refresh.buffer.seconds 的剩余生命周期超过其剩余生命周期,则该值和 sasl.login.refresh.buffer.seconds 都会被忽略。目前仅适用于 OAUTHBEARER。

sasl.login.refresh.window.factor

type: double
Default: 0.8
Valid Values: [0.5,…​,1.0]
Importance: low

登录刷新线程将休眠,直到达到相对于凭证生命周期的指定窗口因子,此时将尝试刷新凭证。法律值介于 0.5(50%)和 1.0(100%)之间;如果没有指定值,则使用默认值 0.8(80%)。目前仅适用于 OAUTHBEARER。

sasl.login.refresh.window.jitter

type: double
Default: 0.05
Valid Values: [0.0,…​,0.25]
Importance: low

与凭证生命周期相关的最大随机 jitter 数量,添加到登录刷新线程的睡眠时间。法律值介于 0 到 0.25(25%)之间;如果没有指定值,则使用默认值 0.05(5%)。目前仅适用于 OAUTHBEARER。

scheduled.rebalance.max.delay.ms

type: int
Default: 300000(5 分钟)
Valid Values: [0,…​,2147483647]
Importance: low

在重新平衡并将连接器和任务重新分配给组前等待一个或多个受竞争工作者返回的最大延迟时间。在这个时期,对应工作者的连接器和任务仍未分配。

socket.connection.setup.timeout.max.ms

type: long
Default: 30000(30 秒)
Valid Values: [0,…​]
Importance: low

客户端在套接字连接建立前等待的最大时间。连接设置超时将为每个连续连接失败的指数级增长,最高为此最大值。为避免连接风暴,超时将应用 0.2 的随机因数,因此在计算值之上的 20% 到 20% 之间的随机范围。

socket.connection.setup.timeout.ms

type: long
Default: 10000(10 秒)
Valid Values: [0,…​]
Importance: low

客户端等待套接字连接建立的时间。如果连接没有在超时前构建,客户端会关闭套接字频道。

ssl.cipher.suites

type: list
Default: null
Importance: low

密码套件列表。这是身份验证、加密、MAC 和密钥交换算法的命名组合,用于使用 TLS 或 SSL 网络协议协商网络连接的安全设置。默认情况下,支持所有可用的密码套件。

ssl.client.auth

type: string
Default: none
Importance: low

配置 kafka 代理以请求客户端身份验证。以下设置很常见:

  • ssl.client.auth=required 如果需要设置为所需的客户端身份验证,则需要将其设置为所需的客户端身份验证。
  • ssl.client.auth=requested 这意味着客户端身份验证是可选的。与必需不同,如果将此选项设置为客户端,则可以选择不提供有关自身的身份验证信息
  • ssl.client.auth=none 这意味着不需要客户端身份验证。
ssl.endpoint.identification.algorithm

type: string
Default: https
Importance: low

使用服务器证书验证服务器主机名的端点识别算法。

ssl.engine.factory.class

type: class
Default: null
Importance: low

kind org.apache.kafka.common.security.auth.SslEngineFactory 的类型,以提供 SSLEngine 对象。Default value is org.apache.kafka.common.security.ssl.DefaultSslEngineFactory.

ssl.keymanager.algorithm

type: string
Default: SunX509
Importance: low

密钥管理器工厂用于 SSL 连接的算法。默认值为为 Java 虚拟机配置的关键管理器工厂算法。

ssl.secure.random.implementation

type: string
Default: null
Importance: low

用于 SSL 加密操作的 SecureRandom PRNG 实施。

ssl.trustmanager.algorithm

type: string
Default: PKIX
Importance: low

信任管理器用于 SSL 连接的算法。默认值为为 Java 虚拟机配置的信任管理器工厂算法。

status.storage.partitions

type: int
Default: 5
Valid Values: Positive number 或 -1 使用代理的默认
Importance: low

创建状态存储主题时使用的分区数量。

status.storage.replication.factor

type: short
Default: 3
Valid Values: Positive number 不大于 Kafka 集群中的代理数量,或 -1 用于使用代理的默认
Importance: low

创建状态存储主题时使用的复制因素。

task.shutdown.graceful.timeout.ms

type: long
Default: 5000(5 秒)
Importance: low

等待任务正常关闭的时间。这是总时间,而不是每项任务。所有任务都已触发关机,然后按顺序等待。

topic.creation.enable

type: boolean
Default: true
Importance: low

当源连接器配置了 topic.creation. 属性时,是否允许源连接器使用的主题自动创建。每个任务将使用管理员客户端创建其主题,且不依赖于 Kafka 代理自动创建主题。

topic.tracking.allow.reset

type: boolean
Default: true
Importance: low

如果设为 true,则允许用户请求重置每个连接器的一组活动主题。

topic.tracking.enable

type: boolean
Default: true
Importance: low

启用在运行时跟踪每个连接器的活动主题集合。

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.