26.12. Spring Boot Auto-Configuration


当将 kafka 与 Spring Boot 搭配使用时,请确保使用以下 Maven 依赖项支持自动配置:

<dependency>
  <groupId>org.apache.camel.springboot</groupId>
  <artifactId>camel-kafka-starter</artifactId>
  <version>{CamelSBProjectVersion}</version>
  <!-- Use your Camel Spring Boot version -->
</dependency>

组件支持 105 选项,如下所示。

Name描述默认类型

camel.component.kafka.additional-properties

为 kafka consumer 或 kafka producer 设置额外的属性,以防它们无法直接在 camel 配置中设置(例如:尚未在 Camel 配置中反映的新 Kafka 属性),其属性必须带有 additionalProperies 前缀。e.g: additionalProperties.transactional.id=12345&additionalProperties.schema.url=http://localhost:8811/avro。

 

map

camel.component.kafka.allow-manual-commit

是否允许通过 KafkaManualCommit 进行手动提交。如果启用了这个选项,则 KafkaManualCommit 实例存储在 Exchange 消息标头中,它允许最终用户通过 Kafka 使用者访问此 API 并执行手动偏移提交。

false

布尔值

camel.component.kafka.auto-commit-enable

如果为 true,请定期提交到由消费者获取的消息偏移。当进程作为新消费者开始的位置失败时,将使用这个提交的误差。

true

布尔值

camel.component.kafka.auto-commit-interval-ms

consumer 偏移量被提交到 zookeeper 的频率。

5000

整数

camel.component.kafka.auto-commit-on-stop

在消费者停止时,是否执行明确的自动提交,以确保代理具有最近使用的消息的提交。这要求打开选项 autoCommitEnable。可能的值有: sync、sync 或 none。sync 是默认值。

sync

字符串

camel.component.kafka.auto-offset-reset

当 ZooKeeper 中没有初始偏移,或者一个偏移范围不足时,应该怎么办:最早的 : 会自动将偏移重置为最早的偏移 latest:自动将偏移重置为最新误差失败:将异常分配给消费者。

latest

字符串

camel.component.kafka.autowired-enabled

是否启用自动。这用于自动自动自动选项(选项必须标记为 autowired),方法是在 registry 中查找是否有匹配的类型实例,然后在组件上进行配置。这可用于自动配置 JDBC 数据源、JMS 连接工厂、AWS 客户端等。

true

布尔值

camel.component.kafka.break-on-first-error

该选项控制消费者处理交换时会发生的情况,而且它失败。如果 选项为 false,则使用者将继续显示下一个消息并进行处理。如果 选项为 true,则使用者中断,并将返回到消息偏移导致失败,然后重新尝试处理此消息。但是,如果每次绑定失败,这将导致无量处理相同的消息,例如:因此,建议您使用 Camel 错误处理程序来处理示例。

false

布尔值

camel.component.kafka.bridge-error-handler

允许将消费者桥接到 Camel 路由 Error Handler,这意味着在消费者尝试获取传入的消息时发生任何异常,或像这样一样处理,消息现在将被作为消息进行处理,并由路由 Error Handler 处理。默认情况下,使用者将使用 org.apache.camel.spi.ExceptionHandler 处理异常,该处理程序将记录在 WARN 或 ERROR 级别并忽略。

false

布尔值

camel.component.kafka.brokers

要使用的 Kafka 代理的 URL。格式为 host1:port1,host2:port2,列表可以是代理的子集,也可以是指向代理子集的 VIP。这个选项称为 Kafka 文档中的 bootstrap.servers。

 

字符串

camel.component.kafka.buffer-memory-size

制作者可用于将等待发送到服务器的内存总量为:如果记录的发送速度快于生产者将会被发送到服务器,或根据 block.on.buffer.full 指定的优先级而引发异常。此设置应当与制作者所使用的总内存对应,但不是硬绑定,因为生产者所使用的所有内存都不会被使用。有些额外的内存将用于压缩(如果启用压缩),以及维护动态请求。

33554432

整数

camel.component.kafka.check-crcs

自动检查所消耗的记录的 CRC32。这样可确保不会对消息发生任何有线或磁盘上的崩溃。这个检查增加了一些开销,因此在寻求性能时可能会禁用它。

true

布尔值

camel.component.kafka.client-id

客户端 ID 是在每个请求中发送的用户指定字符串,以帮助追踪调用。它应该以逻辑方式标识发出请求的应用程序。

 

字符串

camel.component.kafka.commit-timeout-ms

代码将等待同步提交完成的最长时间(以毫秒为单位)。选项是 java.lang.Long 类型。

5000

Long

camel.component.kafka.compression-codec

此参数允许您为这个制作者生成的所有数据指定压缩代码。有效值为 none、gzip 和 snappy。

none

字符串

camel.component.kafka.configuration

允许预先配置 Kafka 组件,并带有端点要使用的常见选项。选项是 org.apache.camel.component.kafka.KafkaConfiguration 类型。

 

KafkaConfiguration

camel.component.kafka.connection-max-idle-ms

在此配置指定的毫秒数后关闭闲置连接。

540000

整数

camel.component.kafka.consumer-request-timeout-ms

配置控制客户端等待请求响应的最大时间。如果在超时前没有收到响应,客户端会在需要时重新发送请求,或者在重试耗尽时失败请求。

40000

整数

camel.component.kafka.consumers-count

连接到 kafka 服务器的用户数量。每个消费者都在单独的线程中运行,该线程检索并处理传入数据。

1

整数

camel.component.kafka.delivery-timeout-ms

在调用 send()返回后报告成功或失败的时间上有上限。这会限制在发送前会延迟记录的总时间、从代理等待确认的时间(如果预期),以及可重试发送失败的时间。

120000

整数

camel.component.kafka.enable-idempotence

如果设置为 'true',则制作者将确保在流中写入每个消息的一个副本。如果 'false',则制作者重试可能会在流中写入重试消息的重复数据。如果设置为 true,这个选项则需要将 max.in.flight.requests.per.connection 设置为 1,且重试无法为零,另外 acks 必须设置为"all"。

false

布尔值

camel.component.kafka.enabled

是否启用 kafka 组件的自动配置。默认启用。

 

布尔值

camel.component.kafka.fetch-max-bytes

服务器应返回的最大数据量为获取请求,如果获取的第一个非空分区中的第一个消息大于这个值,则信息仍会返回,以确保使用者可以进行进度。代理接受的最大消息大小通过 message.max.bytes(broker config)或 max.message.bytes(topic 配置)定义。请注意,使用者并行执行多个获取。

52428800

整数

camel.component.kafka.fetch-min-bytes

服务器应返回获取请求的最小数据量。如果数据不足,请求会等待大量数据在回答请求前等待累积数据。

1

整数

camel.component.kafka.fetch-wait-max-ms

如果没有足够的数据立即满足 fetch.min.bytes,则服务器在回答获取请求前将阻断的最大时间。

500

整数

camel.component.kafka.group-id

唯一标识此使用者所属的消费者流程组的字符串。通过设置同一组 id 多个进程,表示它们都是同一消费者组的所有部分。消费者需要这个选项。

 

字符串

camel.component.kafka.group-instance-id

由最终用户提供的消费者实例的唯一标识符。只允许非空字符串。如果设置,使用者被视为静态成员,这意味着任何时候都只允许具有此 ID 的实例。这可与较大的会话超时结合使用,以避免出现临时不可用(如进程重启)导致的重新平衡问题。如果没有设置,消费者会将该组加入为动态成员,这是传统行为。

 

字符串

camel.component.kafka.header-deserializer

使用自定义 KafkaHeaderDeserializer 来 deserialize kafka 标头值。选项是 org.apache.camel.component.kafka.serde.KafkaHeaderDeserializer 类型。

 

KafkaHeaderDeserializer

camel.component.kafka.header-filter-strategy

使用自定义 HeaderFilterStrategy 过滤到 Camel 消息的标头。选项是 org.apache.camel.spi.HeaderFilterStrategy 类型。

 

HeaderFilterStrategy

camel.component.kafka.header-serializer

使用自定义 KafkaHeaderSerializer 来序列化 kafka 标头值。选项是 org.apache.camel.component.kafka.serde.KafkaHeaderSerializer 类型。

 

KafkaHeaderSerializer

camel.component.kafka.heartbeat-interval-ms

使用 Kafka 的组群管理工具时,心跳到消费者协调器之间的预期时间。心跳用于确保消费者的会话保持活跃状态,并在新消费者加入或离开该组时促进重新平衡。该值必须小于 session.timeout.ms,但通常设置的值通常不应超过 1/3。它可以被调整,以便控制正常重新平衡的预期时间。

3000

整数

camel.component.kafka.interceptor-classes

为制作者或消费者设置拦截器。制作者拦截器必须是实施 org.apache.kafka.clients.producer.producer.ProducerInterceptor 拦截器的类,则必须为实施 org.apache.kafka.clients.consumer.ConsumerInterceptor.consumer.

 

字符串

camel.component.kafka.kafka-client-factory

用于创建 org.apache.kafka.clients.consumer.KafkaConsumer 和 org.apache.kafka.clients.producer.KafkaProducer 实例的工厂。这允许配置自定义工厂来创建带有扩展 vanilla Kafka 客户端的逻辑的实例。选项是 org.apache.camel.component.kafka.KafkaClientFactory 类型。

 

KafkaClientFactory

camel.component.kafka.kafka-manual-commit-factory

创建 KafkaManualCommit 实例所使用的因素。这样,在手动提交来自开箱即用的默认实现时,需要插入自定义 KafkaManualCommit 实例来创建一个自定义 KafkaManualCommit 实例。选项是 org.apache.camel.component.kafka.KafkaManualCommit factory 类型。

 

KafkaManualCommitFactory

camel.component.kafka.kerberos-before-relogin-min-time

刷新尝试之间的登录线程睡眠时间。

60000

整数

camel.component.kafka.kerberos-init-cmd

Kerberos kinit 命令路径.默认为 /usr/bin/kinit。

/usr/bin/kinit

字符串

camel.component.kafka.kerberos-principal-to-local-rules

用于从主体名称映射到短名称(通常是操作系统用户名)的规则列表。规则按照顺序评估,第一个与主体名称匹配的规则被用来将其映射到一个短名称。之后的所有规则将被忽略。默认情况下,格式为 {username}/{hostname}{REALM} 的主体名称被映射到 {username}。有关格式的更多详情,请参阅安全授权和 acls 文档。可以使用逗号分隔多个值。

DEFAULT

字符串

camel.component.kafka.kerberos-renew-jitter

添加至续订时间的随机jitter 的百分比。

 

camel.component.kafka.kerberos-renew-window-factor

登录线程将休眠,直到达到从最后刷新到 ticket 的过期时间,此时它将尝试续订票据。

 

camel.component.kafka.key

记录密钥(如果未指定密钥,则为 null)。如果已经配置了这个选项,它将优先于标头 KafkaConstants#KEY。

 

字符串

camel.component.kafka.key-deserializer

为实现 Deserializer 接口的密钥的 Deserializer 类。

org.apache.kafka.common.serialization.StringDeserializer

字符串

camel.component.kafka.key-serializer

键的序列化类(如果没有指定,则为与消息相同)。

org.apache.kafka.common.serialization.StringSerializer

字符串

camel.component.kafka.lazy-start-producer

制作者是否应该启动 lazy(在第一个消息上)。通过启动 lazy,您可以使用它来允许 CamelContext 和路由在启动期间启动,否则在启动期间出现问题,并导致路由启动失败。通过将这个启动延迟到 lazy 后,可以在通过 Camel 的路由错误处理程序路由消息期间处理启动失败。注意在处理第一个消息时,创建并启动制作者可能花费较少的时间,从而延长处理的总处理时间。

false

布尔值

camel.component.kafka.linger-ms

制作者将到达请求传输之间的所有记录分组到一个批处理请求中。通常,只有在记录到达的速度快于发送日志时,才会被加载。然而,在某些情况下,客户端可能希望降低请求数量,甚至处于中等负载。此设置通过添加少量的资料延迟来实现这个值,而不是立即发送记录者将等待发送到给定延迟,以便发送其他记录以便可以组合使用发送发送其他记录。这可以被视为 TCP 中的 Nagle 的算法相似。此设置达到批处理延迟的上限:一旦我们获得批处理.size 值得记录,无论无论此设置如何,任何设置都会立即发送。但是,如果我们小于这个分区,我们会为指定时间"闲置者"显示,等待更多记录显示。此设置默认为 0(即无延迟)。例如,设置 linger.ms=5 将对发送的请求数量产生影响,但会将最多 5ms 延迟添加到没有负载时发送的记录。

0

整数

camel.component.kafka.max-block-ms

配置控制发送到 kafka 将阻断的时长。这些方法可能会因多种原因被阻止。例如:缓冲区 full,元数据不可用。此配置会对获取元数据、密钥和值序列化、分区和分配缓冲区内存的总时间实施最大限制。如果是 partitionsFor(),这个配置会在等待元数据时产生最大时间阈值。

60000

整数

camel.component.kafka.max-in-flight-request

在阻塞之前,客户端将在单个连接上发送的最大未确认请求数。请注意,如果此设置大于 1 且有失败发送,则因为重试(如果启用了重试,则出现消息重新排序风险)。

5

整数

camel.component.kafka.max-partition-fetch-bytes

服务器的每个分区中要返回的最大数据量。用于请求的最大总内存为 #partitions max.partition.fetch.bytes。这个大小必须至少是服务器允许的最大消息大小,或生产者可以发送大于消费者可以获取的消息。如果发生这种情况,消费者可能会卡住在某个分区上获取大量消息。

1048576

整数

camel.component.kafka.max-poll-interval-ms

使用消费者组管理时调用 poll()之间的最大延迟。这样一来,在获取更多记录前,可以闲置这个时间。如果在此超时的过期前没有调用 poll(),则消费者被视为失败,组将重新平衡,以将分区重新分配给另一个成员。选项是 java.lang.Long 类型。

 

Long

camel.component.kafka.max-poll-records

单个调用中返回到 poll()中的最大记录数。

500

整数

camel.component.kafka.max-request-size

请求的最大值。这也实际上是记录最大记录大小的最大值。请注意,服务器在记录大小中有自己的 cap,该大小可能与此不同。此设置将限制制作者将在单个请求中发送的记录批处理数量,以避免发送大量请求。

1048576

整数

camel.component.kafka.metadata-max-age-ms

毫秒内的时间(以毫秒为单位),即使在我们未看到任何分区领导更改的情况下,也会强制更新元数据,以便主动发现任何新的代理或分区。

300000

整数

camel.component.kafka.metric-reporters

用作指标报告器的类列表。通过实施 MetricReporter 接口,可以插入新指标创建通知的类。JmxReporter 始终包含在内以注册 JMX 统计。

 

字符串

camel.component.kafka.metrics-sample-window-ms

为计算指标维护的示例数量。

30000

整数

camel.component.kafka.no-of-metrics-sample

为计算指标维护的示例数量。

2

整数

camel.component.kafka.offset-repository

用于本地存储主题每个分区的偏移库。定义一个将禁用 autocommit。选项是 org.apache.camel.spi.StateRepository<java.lang.String, java.lang.String> 类型。

 

StateRepository

camel.component.kafka.partition-assignor

使用组管理时,客户端将使用分区分配策略在消费者实例之间分发分区所有权。

org.apache.kafka.clients.consumer.RangeAssignor

字符串

camel.component.kafka.partition-key

记录要发送到的分区(如果未指定分区,则为 null)。如果已经配置了这个选项,它将优先于标头 KafkaConstants#PARTITION_KEY。

 

整数

camel.component.kafka.partitioner

在子主题间为分区消息的 partitioner 类。默认分区程序基于密钥的哈希。

org.apache.kafka.clients.producer.internals.DefaultPartitioner

字符串

camel.component.kafka.poll-exception-strategy

要将自定义策略与消费者搭配使用,以控制如何在池消息时处理从 Kafka 代理抛出的异常。选项是 org.apache.camel.component.kafka.PollExceptionStrategy 类型。

 

PollExceptionStrategy

camel.component.kafka.poll-on-error

如果 kafka 异常在轮询新消息时要做什么。除非已在端点级别上配置显式值,否则在默认情况下将使用组件配置中的值。DISCARD 将丢弃消息,并继续轮询下一个消息。ERROR_HANDLER 将使用 Camel 的错误处理程序来处理异常,之后再继续轮询下一个消息。RECONNECT 将重新连接消费者,然后尝试重新轮询消息 RETRY 将让消费者再次轮询相同的消息(如果消费者应该能再次使用消息,则必须手动启动/重新启动)。

 

PollOnError

camel.component.kafka.poll-timeout-ms

轮询 KafkaConsumer 时使用的超时。选项是 java.lang.Long 类型。

5000

Long

camel.component.kafka.producer-batch-size

当多个记录发送到同一分区时,生产者将尝试将记录组合成更少的请求。这有助于客户端和服务器上的性能。此配置以字节为单位控制默认的批处理大小。发送到该代理的批处理记录不会包括超过这个大小的批处理。请求会包含多个批处理,每个分区对应一个可用数据的分区。小批量大小会使批处理较小,且可能降低吞吐量(一个批处理大小将完全禁用批处理)。非常大的批处理大小可能会更严重地使用内存,因为我们总是会在额外记录中为指定批处理大小分配一个缓冲区。

16384

整数

camel.component.kafka.queue-buffering-max-messages

在使用 async 模式时可以放入制作者时可以排队的最大未发送消息数量,然后才能丢弃制作者或数据。

10000

整数

camel.component.kafka.receive-buffer-bytes

在读取数据时要使用的 TCP 接收缓冲区(SO_RCVBUF)的大小。

65536

整数

camel.component.kafka.reconnect-backoff-max-ms

重新连接到重复连接失败的代理时要等待的最大时间(毫秒)。如果提供,每个主机的 backoff 将为每个连续的连接失败指数增加,最高最高。在计算了 backoff 增长后,会添加 20% 的随机 jitter 来避免连接停滞。

1000

整数

camel.component.kafka.reconnect-backoff-ms

尝试重新连接给定主机前等待的时间。这可避免在紧张循环中重复连接到主机。这个 backoff 适用于消费者向代理发送的所有请求。

50

整数

camel.component.kafka.record-metadata

制作者是否应将 RecordMetadata 结果从发送到 Kafka。结果存储在包含 RecordMetadata 元数据的列表中。这个列表保存在带有键 KafkaConstants#KAFKA_RECORDMETA 的标头中。

true

布尔值

camel.component.kafka.request-required-acks

致谢的数量要求在考虑请求完成前收到领导机。这控制发送的记录的持久性。以下设置很常见:acks=0 If 设为零,那么制作者不会等待服务器出现任何确认。记录将立即添加到套接字缓冲区并被视为已发送。无法保证服务器在这个示例中收到记录,并且重试配置不会生效(因为客户端通常不知道任何失败)。每个记录返回的偏移将始终设置为 -1. acks=1。这意味着领导记录会将记录写入其本地日志,但不会向所有后续记录做出完全确认。在这种情况下,在确认记录后,领导者应立即失败,但随后其复制后将会丢失该记录。acks=all 意味着领导机将等待整套 in-sync 副本确认记录。这保证记录不会丢失,只要至少一个 in-sync 副本仍保持活动。这是最强大的可用保证。

1

字符串

camel.component.kafka.request-timeout-ms

代理在向客户端发送错误前等待尝试满足 request.required.acks 要求的时间长度。

30000

整数

camel.component.kafka.resume-strategy

这个选项允许用户设置自定义恢复策略。当分区被分配(例如:连接或重新连接时)时会执行 resume 策略。它允许实施自定义如何恢复操作,并提供 seekTo 和 offsetRepository 机制更灵活的替代方案。有关实现详情,请参阅 KafkaConsumerResumeStrategy。此选项不会影响自动提交设置。使用此设置的实施很可能希望使用手动提交选项进行评估。选项是 org.apache.camel.component.kafka.consumer.support.KafkaConsumeStrategy 类型。

 

KafkaConsumerResumeStrategy

camel.component.kafka.retries

设置大于零的值将导致客户端重新发送发送失败的记录,并显示可能存在瞬时错误。请注意,如果客户端在收到错误时重新输入记录,这个重试不相同。允许重试可能会更改记录顺序,因为当两个记录发送到单个分区,且第一个失败,且重试,但第二次成功,那么可能会先出现第二个记录。

0

整数

camel.component.kafka.retry-backoff-ms

在每次重试前,制作者会刷新相关主题的元数据,查看是否选择了新的领导。由于领导选举机制需要一定时间,因此此属性指定了在刷新元数据前,制作者在刷新元数据前等待的时间。

100

整数

camel.component.kafka.sasl-jaas-config

公开 kafka sasl.jaas.config 参数示例: org.apache.kafka.common.security.plain.PlainLoginModule required username=USERNAME password=PASSWORD;.

 

字符串

camel.component.kafka.sasl-kerberos-service-name

Kafka 运行的 Kerberos 主体名称。这可以在 Kafka 的 JAAS 配置或 Kafka 配置中定义。

 

字符串

camel.component.kafka.sasl-mechanism

使用简单身份验证和安全层(SASL)机制。如需有效的值,请参阅。

GSSAPI

字符串

camel.component.kafka.schema-registry-u-r-l

要使用的 Confluent Platform schema 注册表服务器的 URL。格式为 host1:port1,host2:port2。在 Confluent Platform 文档中,这称为 schema.registry.url。这个选项仅适用于 Confluent Platform(不是标准 Apache Kafka)。

 

字符串

camel.component.kafka.security-protocol

用于与代理通信的协议。支持 SASL_PLAINTEXT、PLAINTEXT 和 SSL。

PLAINTEXT

字符串

camel.component.kafka.seek-to

设置 KafkaConsumer 将从启动开始读取或结束:从一开始开始读取:从末尾开始阅读:从末尾开始,这正在替换之前属性 seekToBeginning。

 

字符串

camel.component.kafka.send-buffer-bytes

套接字写入缓冲区大小。

131072

整数

camel.component.kafka.session-timeout-ms

在使用 Kafka 的组群管理工具时,用于检测失败的超时时间。

10000

整数

camel.component.kafka.shutdown-timeout

毫秒的超时,以等待使用者或制作者正常地关闭并终止其 worker 线程。

30000

整数

camel.component.kafka.specific-avro-reader

这可让特定 Avro 读取器用于 Confluent Platform schema registry 和 io.confluent.kafka.serializers.KafkaAvroDeserializer。这个选项仅适用于 Confluent Platform(不是标准 Apache Kafka)。

false

布尔值

camel.component.kafka.ssl-cipher-suites

密码套件列表。这是用于使用 TLS 或 SSL 网络协议协商网络连接的安全设置的验证、加密、MAC 和密钥交换算法的命名组合。通过默认值,支持所有可用的密码套件。

 

字符串

camel.component.kafka.ssl-context-parameters

使用 Camel SSLContextParameters 对象进行 SSL 配置。如果配置,则在其他 SSL 端点参数之前应用。注意: Kafka 仅支持从文件位置加载密钥存储,因此在 KeyStoreParameters.resource 选项中使用 file: 前缀。选项是 org.apache.camel.support.jsse.SSLContextParameters 类型。

 

SSLContextParameters

camel.component.kafka.ssl-enabled-protocols

为 SSL 连接启用的协议列表。TLSv1.2、TLSv1.1 和 TLSv1 默认启用。

 

字符串

camel.component.kafka.ssl-endpoint-algorithm

使用服务器证书验证服务器主机名的端点标识算法。

https

字符串

camel.component.kafka.ssl-key-password

密钥存储文件中的私钥密码。对于客户端,这是可选的。

 

字符串

camel.component.kafka.ssl-keymanager-algorithm

密钥管理器工厂用于 SSL 连接的算法。默认值为 Java 虚拟机配置的主要管理器工厂算法。

SunX509

字符串

camel.component.kafka.ssl-keystore-location

密钥存储文件的位置。对于客户端,这是可选的,可用于客户端双向身份验证。

 

字符串

camel.component.kafka.ssl-keystore-password

键存储文件的存储密码。这是可选的,并且只有在配置了 ssl.keystore.location 时才需要。

 

字符串

camel.component.kafka.ssl-keystore-type

密钥存储文件的文件格式。对于客户端,这是可选的。默认值为 JKS。

JKS

字符串

camel.component.kafka.ssl-protocol

用于生成 SSLContext 的 SSL 协议。默认设置为 TLS,对于大多数情况来说是正常的。最近 JVM 中允许的值是 TLS、TLSv1.1 和 TLSv1.2。在较早的 JVM 中可能会支持 SSL、SSLv2 和 SSLv3,但由于已知安全漏洞,不建议采用它们的使用。

 

字符串

camel.component.kafka.ssl-provider

用于 SSL 连接的安全供应商名称。默认值是 JVM 的默认安全供应商。

 

字符串

camel.component.kafka.ssl-trustmanager-algorithm

信任管理器工厂用于 SSL 连接的算法。默认值为 Java 虚拟机配置的信任管理器工厂算法。

PKIX

字符串

camel.component.kafka.ssl-truststore-location

信任存储文件的位置。

 

字符串

camel.component.kafka.ssl-truststore-password

信任存储文件的密码。

 

字符串

camel.component.kafka.ssl-truststore-type

信任存储文件的文件格式。默认值为 JKS。

JKS

字符串

camel.component.kafka.synchronous

设定同步处理是否应严格使用。

false

布尔值

camel.component.kafka.topic-is-pattern

主题是模式(正则表达式)。这可以用于订阅与模式匹配的主题数量。

false

布尔值

camel.component.kafka.use-global-ssl-context-parameters

启用使用全局 SSL 上下文参数。

false

布尔值

camel.component.kafka.value-deserializer

实施 Deserializer 接口的值的 Deserializer 类。

org.apache.kafka.common.serialization.StringDeserializer

字符串

camel.component.kafka.value-serializer

消息的序列化器类。

org.apache.kafka.common.serialization.StringSerializer

字符串

camel.component.kafka.worker-pool

为了使用自定义 worker 池在 kafka 服务器后继续路由 Exchange,请确认使用异步非阻塞处理从 KafkaProducer 发送到它的消息。如果使用这个选项,则必须处理线程池的生命周期,以便在不再需要时关闭池。选项是 java.util.concurrent.ExecutorService 类型。

 

ExecutorService

camel.component.kafka.worker-pool-core-size

在 kafka 服务器确认使用异步非阻塞处理从 KafkaProducer 发送到 KafkaProducer 后 worker 池的核心线程数量。

10

整数

camel.component.kafka.worker-pool-max-size

在 kafka 服务器确认使用异步非阻塞处理从 KafkaProducer 发送到 KafkaProducer 后,用于继续路由 Exchange 的最大线程数量。

20

整数

Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.