29.12. Spring Boot Auto-Configuration


Spring Boot で jira を使用する場合は、次の Maven 依存関係を使用して自動設定をサポートしてください。

<dependency>
  <groupId>org.apache.camel.springboot</groupId>
  <artifactId>camel-kafka-starter</artifactId>
</dependency>

コンポーネントは、以下に記載される 105 のオプションをサポートします。

Expand
Name説明デフォルトタイプ

camel.component.kafka.additional-properties

camel 設定で直接設定できない場合に備えて、kafka コンシューマーまたは kafka プロデューサーのいずれかに追加のプロパティーを設定します (例: Camel 設定にまだ反映されていない新しい Kafka プロパティー)。プロパティーには additionalProperties を接頭辞として付ける必要があります。たとえば、additionalProperties.transactional.id=12345&additionalProperties.schema.registry.url=http://localhost:8811/avro です。

 

マップ

camel.component.kafka.allow-manual-commit

KafkaManualCommit による手動コミットを許可するかどうか。このオプションを有効にすると、KafkaManualCommit のインスタンスが Exchange メッセージヘッダーに格納されます。これにより、エンドユーザーはこの API にアクセスし、Kafka コンシューマーを介して手動でオフセットコミットを実行できます。

false

ブール値

camel.component.kafka.auto-commit-enable

true の場合、コンシューマーによってすでにフェッチされているメッセージのオフセットを ZooKeeper に定期的にコミットします。このコミットされたオフセットは、プロセスが失敗したときに、新しいコンシューマーが開始される位置として使用されます。

true

ブール値

camel.component.kafka.auto-commit-interval-ms

コンシューマーオフセットが Zookeeper にコミットされるミリ秒単位の頻度。

5000

Integer

camel.component.kafka.auto-commit-on-stop

コンシューマーが停止したときに明示的な自動コミットを実行して、ブローカーが最後に消費されたメッセージからコミットされていることを確認するかどうか。これには、autoCommitEnable オプションをオンにする必要があります。可能な値は、sync、async、または none です。sync がデフォルト値です。

sync

String

camel.component.kafka.auto-offset-reset

ZooKeeper に初期オフセットがない場合、またはオフセットが範囲外の場合の対処方法: Early : オフセットを最も古いオフセットに自動的にリセット latest : オフセットを最新のオフセットに自動的にリセット Fail: コンシューマーに例外を出力します。

latest

String

camel.component.kafka.autowired-enabled

自動ワイヤリングが有効になっているかどうか。これは、コンポーネントで設定される一致するタイプのインスタンスが 1 つあるかどうかを検出するためにレジストリーを検索することで、自動ワイアリングオプションに使用されます (オプションは自動ワイアとマーク付けされる必要があります)。これは、JDBC データソース、JMS 接続ファクトリー、AWS クライアントなどの自動設定に使用できます。

true

ブール値

camel.component.kafka.break-on-first-error

このオプションは、コンシューマーが交換を処理していて失敗した場合に何が起こるかを制御します。オプションが false の場合、コンシューマーは次のメッセージに進み、それを処理します。オプションが true の場合、コンシューマーは中断し、失敗の原因となったメッセージのオフセットに戻ってシークし、このメッセージの処理を再試行します。ただし、これは、たとえば有害なメッセージのように毎回失敗する場合、同じメッセージの無限の処理につながる可能性があります。したがって、Camel のエラーハンドラーを使用するなどして対処することをお勧めします。

false

ブール値

camel.component.kafka.bridge-error-handler

コンシューマーの Camel ルーティングエラーハンドラーへのブリッジを許可します。よって、コンシューマーが受信メッセージなどの取得を試行している間に発生した例外は、メッセージとして処理され、ルーティングエラーハンドラーによって処理されます。デフォルトでは、コンシューマーは org.apache.camel.spi.ExceptionHandler を使用して例外に対応し、WARN または ERROR レベルでログに記録され、無視されます。

false

ブール値

camel.component.kafka.brokers

使用する Kafka ブローカーの URL。形式は host1:port1,host2:port2 で、リストはブローカーのサブセットまたはブローカーのサブセットを指す VIP にすることができます。このオプションは、Kafka ドキュメントでは bootstrap.servers として知られています。

 

String

camel.component.kafka.buffer-memory-size

プロデューサーが、サーバーへの送信を待機しているレコードをバッファーリングするために使用できるメモリーの合計バイト数。レコードがサーバーに配信されるよりも速く送信された場合、プロデューサはブロックするか、block.on.buffer.full で指定された設定に基づいて例外を出力します。この設定は、プロデューサが使用する合計メモリーにほぼ対応する必要があります。ただし、プロデューサが使用するすべてのメモリーがバッファーリングに使用されるわけではないため、ハードバウンドではありません。一部の追加メモリーは、圧縮 (圧縮が有効な場合) やインフライトリクエストの維持に使用されます。

33554432

Integer

camel.component.kafka.check-crcs

消費されたレコードの CRC32 を自動的に確認します。これにより、メッセージのネットワーク上またはディスク上の破損が発生しなくなります。このチェックはオーバーヘッドを追加するため、極端なパフォーマンスを求める場合は無効になる可能性があります。

true

ブール値

camel.component.kafka.client-id

クライアント ID は、呼び出しの追跡に役立つように、各要求で送信されるユーザー指定の文字列です。要求を行っているアプリケーションを論理的に識別する必要があります。

 

String

camel.component.kafka.commit-timeout-ms

同期コミットが完了するまでコードが待機する最大時間 (ミリ秒単位)。オプションは java.lang.Long 型です。

5000

Long

camel.component.kafka.compression-codec

このパラメーターを使用すると、このプロデューサーによって生成されるすべてのデータの圧縮コーデックを指定できます。有効な値は none、gzip、snappy です。

none

String

camel.component.kafka.configuration

エンドポイントが再利用する共通オプションを使用して、Kafka コンポーネントを事前設定できます。オプションは org.apache.camel.component.kafka.KafkaConfiguration タイプです。

 

KafkaConfiguration

camel.component.kafka.connection-max-idle-ms

この設定で指定された期間 (ミリ秒単位) の後にアイドル状態の接続を閉じます。

540000

Integer

camel.component.kafka.consumer-request-timeout-ms

この設定は、クライアントの要求の応答を待つ最大時間を制御します。タイムアウトが経過する前に応答が受信されない場合、クライアントは必要に応じてリクエストを再送信します。または、再試行が使い切られるとリクエストが失敗します。

40000

Integer

camel.component.kafka.consumers-count

kafka サーバーに接続するコンシューマーの数。各コンシューマーは、受信データを取得して処理する個別のスレッドで実行されます。

1

Integer

camel.component.kafka.delivery-timeout-ms

send() の呼び出しが返された後、成功または失敗を報告する時間の上限。これにより、送信前にレコードが遅延する合計時間、ブローカーから確認応答を待つ時間 (予想される場合)、および再試行可能な送信の失敗に許容される時間が制限されます。

120000

Integer

camel.component.kafka.enable-idempotence

'true' に設定すると、プロデューサーは、プロデューサーは各メッセージのコピーが 1 つだけストリームに書き込まれるようにします。false の場合、プロデューサの再試行により、再試行されたメッセージの複製がストリームに書き込まれる可能性があります。true に設定した場合、このオプションでは max.in.flight.requests.per.connection を 1 に設定する必要があり、再試行をゼロにすることはできず、さらに ack を all に設定する必要があります。

false

ブール値

camel.component.kafka.enabled

kafka コンポーネントの自動設定を有効にするかどうか。これはデフォルトで有効になっています。

 

ブール値

camel.component.kafka.fetch-max-bytes

サーバーがフェッチ要求に対して返す必要があるデータの最大量。これは絶対的な最大値ではありません。フェッチの最初の空でないパーティションの最初のメッセージがこの値よりも大きい場合でも、メッセージが返されて、コンシューマーは進歩することができます。ブローカーが受け入れる最大メッセージサイズは、message.max.bytes (ブローカー設定) または max.message.bytes (トピック設定) で定義されます。コンシューマーは複数のフェッチを並行して実行することに注意してください。

52428800

Integer

camel.component.kafka.fetch-min-bytes

サーバーがフェッチ要求に対して返す必要のあるデータの最小量。利用可能なデータが不十分な場合、リクエストは、リクエストに応答する前に、十分なデータが蓄積されるのを待ちます。

1

Integer

camel.component.kafka.fetch-wait-max-ms

すぐに fetch.min.bytes を満たすのに十分なデータがない場合に、サーバーがフェッチ要求に応答する前にブロックする最大時間。

500

Integer

camel.component.kafka.group-id

このコンシューマーが属するコンシューマープロセスのグループを一意に識別する文字列。同じグループ ID を設定することにより、複数のプロセスはそれらがすべて同じコンシューマーグループの一部であることを示します。このオプションは、コンシューマーに必要です。

 

String

camel.component.kafka.group-instance-id

エンドユーザーが提供するコンシューマーインスタンスの一意の識別子。non-empty strings のみが許可されます。設定されている場合、コンシューマーは静的メンバーとして扱われます。つまり、常に、この ID を持つ 1 つのインスタンスのみがコンシューマーグループで許可されます。これは、より大きなセッションタイムアウトと組み合わせて使用して、一時的な利用不可 (プロセス再起動など) によるグループのリバランスを回避します。設定しないと、コンシューマーは従来の動作である動的メンバーとしてグループに参加します。

 

String

camel.component.kafka.header-deserializer

カスタム KafkaHeaderDeserializer を使用して、kafka ヘッダー値を逆シリアル化します。オプションは org.apache.camel.component.kafka.serde.KafkaHeaderDeserializer タイプです。

 

KafkaHeaderDeserializer

camel.component.kafka.header-filter-strategy

カスタムの HeaderFilterStrategy を使用して、Camel メッセージとの間でヘッダーをフィルタリングします。このオプションは org.apache.camel.spi.HeaderFilterStrategy タイプです。

 

HeaderFilterStrategy

camel.component.kafka.header-serializer

カスタム KafkaHeaderSerializer を使用して、kafka ヘッダー値をシリアル化します。オプションは org.apache.camel.component.kafka.serde.KafkaHeaderSerializer タイプです。

 

KafkaHeaderSerializer

camel.component.kafka.heartbeat-interval-ms

Kafka のグループ管理機能を使用する場合の、ハートビートからコンシューマーコーディネーター間の想定される時間。ハートビートは、コンシューマーのセッションがアクティブな状態を維持し、新しいコンシューマーがグループに参加したり離脱したりする際のリバランスを促進するために使用されます。この値は session.timeout.ms よりも低く設定する必要がありますが、通常はその値の 1/3 以下に設定する必要があります。さらに低く調整することで、通常のリバランスの予想時間を制御することもできます。

3000

Integer

camel.component.kafka.interceptor-classes

プロデューサーまたはコンシューマーのインターセプターを設定します。Producer インターセプターは org.apache.kafka.clients.producer.ProducerInterceptor を実装するクラスでなければなりません Consumer インターセプターは org.apache.kafka.clients.consumer.ConsumerInterceptor を実装するクラスでなければなりません実行時のクラスキャスト例外。

 

String

camel.component.kafka.kafka-client-factory

org.apache.kafka.clients.consumer.KafkaConsumer および org.apache.kafka.clients.producer.KafkaProducer インスタンスの作成に使用するファクトリー。これにより、バニラ Kafka クライアントを拡張するロジックを使用してインスタンスを作成するカスタムファクトリーを設定できます。オプションは org.apache.camel.component.kafka.KafkaClientFactory タイプです。

 

KafkaClientFactory

camel.component.kafka.kafka-manual-commit-factory

KafkaManualCommit インスタンスの作成に使用するファクトリー。これにより、カスタムファクトリーをプラグインしてカスタム KafkaManualCommit インスタンスを作成できます。これは、すぐに使用できるデフォルトの実装から逸脱する手動コミットを行うときに特別なロジックが必要な場合に備えています。オプションは org.apache.camel.component.kafka.KafkaManualCommitFactory タイプです。

 

KafkaManualCommitFactory

camel.component.kafka.kerberos-before-relogin-min-time

更新試行間のログインスレッドのスリープ時間。

60000

Integer

camel.component.kafka.kerberos-init-cmd

Kerberos kinit コマンドパス。デフォルトは/usr/bin/kinit です。

/usr/bin/kinit

String

camel.component.kafka.kerberos-principal-to-local-rules

プリンシパル名から短縮名 (通常はオペレーティングシステムのユーザー名) にマッピングするためのルールの一覧です。ルールは順番に評価され、プリンシパル名と一致する最初のルールは、これを短縮名にマップするために使用されます。一覧の後続のルールは無視されます。デフォルトでは、{username}/{hostname}{REALM} 形式のプリンシパル名は {username} にマッピングされます。形式の詳細については、セキュリティー認証と ACL のドキュメントを参照してください。複数の値はコンマで区切ることができます。

DEFAULT

String

camel.component.kafka.kerberos-renew-jitter

更新時間に追加されたランダムなジッターの割合。

 

double

camel.component.kafka.kerberos-renew-window-factor

ログインスレッドは、最後の更新からチケットの有効期限までの指定された時間のウィンドウファクターに達するまでスリープし、その時点でチケットの更新を試みます。

 

double

camel.component.kafka.key

レコードキー (キーが指定されていない場合は null)。このオプションが設定されている場合、ヘッダー KafkaConstants#KEY よりも優先されます。

 

String

camel.component.kafka.key-deserializer

Deserializer インターフェイスを実装する key の Deserializer クラス。

org.apache.kafka.common.serialization.StringDeserializer

String

camel.component.kafka.key-serializer

キーのシリアライザクラス (何も指定されていない場合、デフォルトはメッセージと同じになります)。

org.apache.kafka.common.serialization.StringSerializer

String

camel.component.kafka.lazy-start-producer

最初のメッセージでプロデューサーをレイジーに起動すべきかどうか。レイジーに起動することで、起動時にプロデューサーが失敗し、それによりルートが失敗する可能性がある状況で、CamelContext およびルートの起動を許可します。レイジーな起動を延期すると、Camel のルーティングエラーハンドラー経由でメッセージのルーティング中に起動の失敗を処理できます。最初のメッセージが処理されるときに、プロデューサーの作成および起動に若干時間がかかり、合計処理時間が長くなる可能性があることに注意してください。

false

ブール値

camel.component.kafka.linger-ms

プロデューサーは、リクエストの送信の間に到着したレコードを 1 つのバッチリクエストにグループ化します。通常、これは、レコードが送信できるよりも早く到着した場合に、負荷がかかった状態でのみ発生します。ただし、状況によっては、中程度の負荷がかかっている場合でも、クライアントがリクエストの数を減らす場合があります。この設定は、少量の人為的な遅延を追加することでこれを実現します。つまり、レコードをすぐに送信するのではなく、プロデューサーは指定された遅延まで待機して他のレコードを送信できるようにし、送信をまとめてバッチ処理できるようにします。これは、TCP の Nagle アルゴリズムに類似するものと考えることができます。この設定は、バッチ処理の遅延の上限を提供します。あるパーティションで batch.size 相当のレコードを取得すると、この設定に関係なくすぐに送信されますが、このパーティションで蓄積されたバイト数がこれより少ない場合は、指定された時間の間、さらにレコードが取得されるのを待つことになります。デフォルトは 0 (つまり遅延なし) に設定されます。たとえば、linger.ms=5 を設定すると、送信されるリクエストの数が減りますが、負荷がない状態で送信されるレコードに最大 5 ミリ秒のレイテンシーが追加されます。

0

Integer

camel.component.kafka.max-block-ms

設定は、kafka への送信がブロックされる時間を制御します。これらのメソッドは、複数の理由でブロックされる可能性があります。例: バッファーがいっぱい、メタデータが利用できない。この設定では、メタデータのフェッチ、キーと値のシリアル化、send () を実行するときのバッファーメモリーの分割と割り当てに費やされる合計時間に最大制限が課されます。partitionsFor () の場合、この設定はメタデータの待機に最大時間のしきい値を課します。

60000

Integer

camel.component.kafka.max-in-flight-request

ブロックする前にクライアントが 1 つの接続で送信する確認されていないリクエストの最大数。この設定が 1 より大きい値に設定されていて、送信に失敗した場合、再試行によりメッセージの順序が変更されるリスクがあることに注意してください (つまり、再試行が有効になっている場合)。

5

Integer

camel.component.kafka.max-partition-fetch-bytes

サーバーが返すパーティションごとのデータの最大量。リクエストに使用される最大合計メモリーは #partitions max.partition.fetch.bytes になります。このサイズは、少なくともサーバーが許可する最大メッセージサイズと同じである必要があります。そうしないと、プロデューサーがコンシューマーがフェッチできるよりも大きなメッセージを送信する可能性があります。その場合、コンシューマーは特定のパーティションで大きなメッセージを取得しようとしてスタックする可能性があります。

1048576

Integer

camel.component.kafka.max-poll-interval-ms

コンシューマーグループ管理を使用する場合の poll() の呼び出し間の最大遅延。これにより、コンシューマーがさらにレコードをフェッチする前にアイドル状態になることができる時間に上限が設定されます。このタイムアウトの期限が切れる前に poll() が呼び出されない場合、コンシューマーは失敗とみなされ、グループはパーティションを別のメンバーに再割り当てするためにリバランスします。オプションは java.lang.Long 型です。

 

Long

camel.component.kafka.max-poll-records

poll() への単一の呼び出しで返される最大レコード数。

500

Integer

camel.component.kafka.max-request-size

リクエストの最大サイズ。これは事実上、最大レコードサイズの上限でもあります。サーバーには、これとは異なる場合がある独自のレコードサイズの上限があることに注意してください。この設定により、プロデューサーが 1 回のリクエストで送信するレコードバッチの数が制限され、大量のリクエストが送信されないようになります。

1048576

Integer

camel.component.kafka.metadata-max-age-ms

新しいブローカーまたはパーティションをプロアクティブに検出するためのパーティションリーダーシップの変更がない場合でも、メタデータの更新を強制するまでの期間 (ミリ秒単位)。

300000

Integer

camel.component.kafka.metric-reporters

メトリクスレポーターとして使用するクラスの一覧。MetricReporter インターフェイスを実装すると、新しいメトリックの作成が通知されるクラスをプラグインできます。JmxReporter は、JMX 統計を登録するために常に含まれます。

 

String

camel.component.kafka.metrics-sample-window-ms

メトリクスを計算するために保持されるサンプルの数。

30000

Integer

camel.component.kafka.no-of-metrics-sample

メトリクスを計算するために保持されるサンプルの数。

2

Integer

camel.component.kafka.offset-repository

トピックの各パーティションのオフセットをローカルに保存するために使用するオフセットリポジトリー。定義すると、自動コミットが無効になります。オプションは org.apache.camel.spi.StateRepository<java.lang.String、java.lang.String> 型です。

 

StateRepository

camel.component.kafka.partition-assignor

グループ管理が使用されている場合に、クライアントがコンシューマーインスタンス間でパーティションの所有権を分散するために使用するパーティション割り当て戦略のクラス名。

org.apache.kafka.clients.consumer.RangeAssignor

String

camel.component.kafka.partition-key

レコードの送信先のパーティション (パーティションが指定されていない場合は null)。このオプションが設定されている場合、ヘッダー KafkaConstants#PARTITION_KEY よりも優先されます。

 

Integer

camel.component.kafka.partitioner

サブトピック間でメッセージを分割するパーティショナークラス。デフォルトのパーティショナーは、キーのハッシュに基づいています。

org.apache.kafka.clients.producer.internals.DefaultPartitioner

String

camel.component.kafka.poll-exception-strategy

コンシューマーでカスタム戦略を使用して、メッセージのプール中に Kafka ブローカーから出力された例外の処理方法を制御します。オプションは org.apache.camel.component.kafka.PollExceptionStrategy タイプです。

 

PollExceptionStrategy

camel.component.kafka.poll-on-error

新しいメッセージのポーリング中に、kafka が例外を出力した場合のアクション。エンドポイントレベルで明示的な値が設定されていない限り、デフォルトでコンポーネント設定の値が使用されます。DISCARD はメッセージを破棄し、次のメッセージのポーリングを続行します。ERROR_HANDLER は Camel のエラーハンドラーを使用して例外を処理し、その後、次のメッセージのポーリングを続行します。RECONNECT はコンシューマーに再接続し、メッセージのポーリングを再試行します RETRY はコンシューマーが同じメッセージのポーリングを再試行できるようにします STOP はコンシューマーを停止します (コンシューマーがメッセージを再び消費できるようにする必要がある場合は、手動で開始/再起動する必要があります)。

 

PollOnError

camel.component.kafka.poll-timeout-ms

KafkaConsumer をポーリングするときに使用されるタイムアウト。オプションは java.lang.Long 型です。

5000

Long

camel.component.kafka.producer-batch-size

複数のレコードが同じパーティションに送信されるときは常に、プロデューサーはレコードをまとめてより少ない要求にバッチ処理しようとします。これにより、クライアントとサーバーの両方でパフォーマンスが向上します。この設定では、デフォルトのバッチサイズをバイト単位で制御します。このサイズより大きいバッチレコードは試行されません。ブローカーに送信されるリクエストには、複数のバッチが含まれ、送信可能なデータを含む各パーティションに 1 つずつ含まれます。バッチサイズが小さいと、バッチ処理が一般的ではなくなり、スループット (バッチサイズゼロの場合、バッチ処理が完全に無効になります)。バッチサイズが非常に大きい場合は、追加のレコードを想定して、常に指定のバッチサイズのバッファーを割り当てるため、メモリーを多少無駄に使用する可能性があります。

16384

Integer

camel.component.kafka.queue-buffering-max-messages

プロデューサをブロックするか、データを削除する前に、非同期モードを使用するときにプロデューサのキューに入れることができる未送信メッセージの最大数。

10000

Integer

camel.component.kafka.receive-buffer-bytes

データの読み取り時に使用する TCP 受信バッファー (SO_RCVBUF) のサイズ。

65536

Integer

camel.component.kafka.reconnect-backoff-max-ms

接続に繰り返し失敗したブローカーへの再接続時に待機する最大時間 (ミリ秒単位)。これが指定されている場合、ホストごとのバックオフは、連続して接続に失敗するたびに、この最大値まで指数関数的に増加します。バックオフの増加を計算した後、コネクションストームを回避するために 20% のランダムなジッターが追加されます。

1000

Integer

camel.component.kafka.reconnect-backoff-ms

特定のホストへの再接続を試行するまでの待機時間。これにより、タイトなループでホストに繰り返し接続することを回避します。このバックオフは、コンシューマーからブローカーに送信されるすべてのリクエストに適用されます。

50

Integer

camel.component.kafka.record-metadata

プロデューサが Kafka への送信から RecordMetadata の結果を保存する必要があるかどうか。結果は、RecordMetadata メタデータを含む List に保存されます。リストは、キー KafkaConstants#KAFKA_RECORDMETA を持つヘッダーに保存されます。

true

ブール値

camel.component.kafka.request-required-acks

リクエストが完了したと見なす前に、プロデューサーがリーダーに受け取ったことを要求する確認の数。これは、送信されるレコードの耐久性を制御します。次の設定が一般的です: acks=0 ゼロに設定すると、プロデューサはサーバーからの確認をまったく待ちません。レコードは直ちにソケットバッファーに追加され、送信済みと見なされます。この場合、サーバーがレコードを受信したかどうかは保証されず、retries の設定は有効になりません (クライアントは通常、失敗を知ることができないからです)。各レコードに返されるオフセットは常に -1 に設定されます。acks=1 これは、リーダーがレコードをローカルログに書き込みますが、すべてのフォロワーからの完全な承認を待たずに応答することを意味します。この場合、レコードを承認した直後にリーダーが失敗したが、フォロワーがそれを複製する前に、レコードは失われます。acks=all これは、リーダーが同期レプリカの完全なセットがレコードを承認するまで待機することを意味します。これにより、少なくとも 1 つの In-Sync レプリカが動作している限り、レコードが失われないことが保証されます。これは利用可能な最強の保証になります。

1

String

camel.component.kafka.request-timeout-ms

クライアントにエラーを返す前に、ブローカーが request.required.acks 要件を満たすために待機する時間。

30000

Integer

camel.component.kafka.resume-strategy

このオプションを使用すると、ユーザーはカスタムの再開方法を設定できます。再開戦略は、パーティションが割り当てられたとき (つまり、接続時または再接続時) に実行されます。これにより、実装は操作を再開する方法をカスタマイズし、seekTo および offsetRepository メカニズムのより柔軟な代替手段として機能できます。実装の詳細については、KafkaConsumerResumeStrategy を参照してください。このオプションは、自動コミット設定には影響しません。この設定を使用する実装は、これと一緒に手動コミットオプションを使用して評価することも必要になる可能性があります。オプションは org.apache.camel.component.kafka.consumer.support.KafkaConsumerResumeStrategy タイプです。

 

KafkaConsumerResumeStrategy

camel.component.kafka.retries

ゼロより大きい値を設定すると、クライアントは、一時的なエラーの可能性により送信に失敗したレコードを再送信します。この再試行は、クライアントがエラーを受信したときにレコードを再送した場合と同じであることに注意してください。再試行を許可すると、レコードの順序が変更される可能性があります。これは、2 つのレコードが 1 つのパーティションに送信され、最初のレコードが失敗して再試行され、2 番目のレコードが成功した場合、2 番目のレコードが最初に表示される可能性があるためです。

0

Integer

camel.component.kafka.retry-backoff-ms

各再試行の前に、プロデューサーは関連するトピックのメタデータを更新して、新しいリーダーが選出されたかどうかを確認します。リーダーの選択には少し時間がかかるため、このプロパティーはプロデューサーがメタデータを更新するまで待機する時間を指定します。

100

Integer

camel.component.kafka.sasl-jaas-config

kafka sasl.jaas.config パラメーターを公開します。例: org.apache.kafka.common.security.plain.PlainLoginModule required username=USERNAME password=PASSWORD;.

 

String

camel.component.kafka.sasl-kerberos-service-name

Kafka が実行される Kerberos プリンシパル名。これは、Kafka の JAAS 設定または Kafka の設定で定義できます。

 

String

camel.component.kafka.sasl-mechanism

使用される Simple Authentication and Security Layer(SASL) メカニズム。有効な値については、を参照してください。

GSSAPI

String

camel.component.kafka.schema-registry-u-r-l

使用する Confluent Platform スキーマレジストリーサーバーの URL。形式は、ホスト 1: ポート 1、ホスト 2: ポート 2 です。これは、Confluent Platform ドキュメントでは schema.registry.url として知られています。このオプションは、Confluent Platform (標準の Apache Kafka ではない) でのみ使用できます。

 

String

camel.component.kafka.security-protocol

ブローカーとの通信に使用されるプロトコル。SASL_PLAINTEXT、PLAINTEXT、および SSL がサポートされています。

PLAINTEXT

String

camel.component.kafka.seek-to

KafkaConsumer が起動時に最初または最後から読み取るかどうかを設定します。begin : 最初から読み取る end : 最後から読み取るこれは、以前のプロパティー seekToBeginning を置き換えています。

 

String

camel.component.kafka.send-buffer-bytes

ソケット書き込みバッファーサイズ。

131072

Integer

camel.component.kafka.session-timeout-ms

Kafka のグループ管理機能を使用するときに障害を検出するために使用されるタイムアウト。

10000

Integer

camel.component.kafka.shutdown-timeout

コンシューマーまたはプロデューサがワーカースレッドをシャットダウンして終了するまで正常に待機するためのミリ秒単位のタイムアウト。

30000

Integer

camel.component.kafka.specific-avro-reader

これにより、Confluent Platform スキーマレジストリーおよび io.confluent.kafka.serializers.KafkaAvroDeserializer で使用する特定の Avro リーダーを使用できるようになります。このオプションは、Confluent Platform (標準の Apache Kafka ではない) でのみ使用できます。

false

ブール値

camel.component.kafka.ssl-cipher-suites

暗号化スイートの一覧。これは、TLS または SSL ネットワークプロトコルを使用してネットワーク接続のセキュリティー設定をネゴシエートするために使用される、認証、暗号化、MAC、およびキー交換アルゴリズムの名前付きの組み合わせです。デフォルトでは、利用可能なすべての暗号スイートがサポートされています。

 

String

camel.component.kafka.ssl-context-parameters

Camel SSLContextParameters オブジェクトを使用した SSL 設定。設定されている場合、他の SSL エンドポイントパラメーターの前に適用されます。注: Kafka はファイルの場所からのキーストアのロードのみをサポートしているため、場所の前に file: を KeyStoreParameters.resource オプションで付けます。オプションは org.apache.camel.support.jsse.SSLContextParameters タイプです。

 

SSLContextParameters

camel.component.kafka.ssl-enabled-protocols

SSL 接続で有効なプロトコルの一覧。TLSv1.2、TLSv1.1、および TLSv1 はデフォルトで有効になっています。

 

String

camel.component.kafka.ssl-endpoint-algorithm

サーバー証明書を使用してサーバーのホスト名を検証するエンドポイント識別アルゴリズム。

https

String

camel.component.kafka.ssl-key-password

キーストアファイル内の秘密キーのパスワード。これはクライアントにとってオプションになります。

 

String

camel.component.kafka.ssl-keymanager-algorithm

SSL 接続のキーマネージャーファクトリーによって使用されるアルゴリズム。デフォルト値は、Java 仮想マシンに設定されたキーマネージャーファクトリーアルゴリズムです。

SunX509

String

camel.component.kafka.ssl-keystore-location

キーストアファイルの場所。これはクライアントではオプションで、クライアントの双方向認証に使用できます。

 

String

camel.component.kafka.ssl-keystore-password

キーストアファイルのストアパスワード。これはクライアントのオプションであり、ssl.keystore.location が設定されている場合にのみ必要です。

 

String

camel.component.kafka.ssl-keystore-type

キーストアファイルのファイル形式。これはクライアントにとってオプションになります。デフォルト値は JKS です。

JKS

String

camel.component.kafka.ssl-protocol

SSLContext の生成に使用される SSL プロトコル。デフォルト設定は TLS で、ほとんどの場合はこれで問題ありません。最近の JVM で許可されている値は、TLS、TLSv1.1、および TLSv1.2 です。SSL、SSLv2、および SSLv3 は古い JVM でサポートされている可能性がありますが、セキュリティーの脆弱性が知られているため、それらの使用はお勧めできません。

 

String

camel.component.kafka.ssl-provider

SSL 接続に使用されるセキュリティープロバイダーの名前。デフォルト値は JVM のデフォルトのセキュリティープロバイダーです。

 

String

camel.component.kafka.ssl-trustmanager-algorithm

SSL 接続のトラストマネージャーファクトリーによって使用されるアルゴリズム。デフォルト値は、Java 仮想マシンに設定されたトラストマネージャーファクトリーアルゴリズムです。

PKIX

String

camel.component.kafka.ssl-truststore-location

トラストストアファイルの場所。

 

String

camel.component.kafka.ssl-truststore-password

トラストストアファイルのパスワード。

 

String

camel.component.kafka.ssl-truststore-type

トラストストアファイルのファイル形式。デフォルト値は JKS です。

JKS

String

camel.component.kafka.synchronous

同期処理を厳密に使用するかどうかを設定します。

false

ブール値

camel.component.kafka.topic-is-pattern

トピックがパターン (正規表現) であるかどうか。これを使用して、パターンに一致する動的な数のトピックをサブスクライブできます。

false

ブール値

camel.component.kafka.use-global-ssl-context-parameters

グローバル SSL コンテキストパラメーターの使用を有効にします。

false

ブール値

camel.component.kafka.value-deserializer

Deserializer インターフェイスを実装する値の Deserializer クラス。

org.apache.kafka.common.serialization.StringDeserializer

String

camel.component.kafka.value-serializer

メッセージのシリアライザクラス。

org.apache.kafka.common.serialization.StringSerializer

String

camel.component.kafka.worker-pool

カスタムワーカープールを使用して、kafka サーバーが非同期のノンブロッキング処理を使用して KafkaProducer から送信されたメッセージを確認した後、Exchange のルーティングを続行します。このオプションを使用する場合は、スレッドプールのライフサイクルを処理して、不要になったときにプールをシャットダウンする必要があります。オプションは java.util.concurrent.ExecutorService タイプです。

 

ExecutorService

camel.component.kafka.worker-pool-core-size

Kafka サーバーが非同期のノンブロッキング処理を使用して KafkaProducer から送信されたメッセージを確認した後、Exchange のルーティングを続行するためのワーカープールのコアスレッドの数。

10

Integer

camel.component.kafka.worker-pool-max-size

Kafka サーバーが、非同期のノンブロッキング処理を使用して KafkaProducer から送信されたメッセージを確認した後、Exchange のルーティングを続行するためのワーカープールのスレッドの最大数。

20

Integer

Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2026 Red Hat
トップに戻る