190.3. Spring Boot Auto-Configuration
コンポーネントは、以下に記載される 99 のオプションをサポートします。
名前 | 説明 | デフォルト | タイプ |
---|---|---|---|
camel.component.kafka.allow-manual-commit | KafkaManualCommit による手動コミットを許可するかどうか。このオプションを有効にすると、KafkaManualCommit のインスタンスが Exchange メッセージヘッダーに格納されます。これにより、エンドユーザーはこの API にアクセスし、Kafka コンシューマーを介して手動でオフセットコミットを実行できます。 | false | Boolean |
camel.component.kafka.break-on-first-error | このオプションは、コンシューマーが交換を処理していて失敗した場合に何が起こるかを制御します。オプションが false の場合、コンシューマーは次のメッセージに進み、それを処理します。オプションが true の場合、コンシューマーは中断し、失敗の原因となったメッセージのオフセットに戻ってシークし、このメッセージの処理を再試行します。ただし、これは、たとえば有害なメッセージのように毎回失敗する場合、同じメッセージの無限の処理につながる可能性があります。したがって、Camel のエラーハンドラーを使用するなどして対処することをお勧めします。 | false | Boolean |
camel.component.kafka.brokers | 使用する Kafka ブローカーの URL。形式は host1:port1,host2:port2 で、リストはブローカーのサブセットまたはブローカーのサブセットを指す VIP にすることができます。このオプションは、Kafka ドキュメントでは bootstrap.servers として知られています。 | String | |
camel.component.kafka.configuration.allow-manual-commit | KafkaManualCommit による手動コミットを許可するかどうか。このオプションを有効にすると、KafkaManualCommit のインスタンスが Exchange メッセージヘッダーに格納されます。これにより、エンドユーザーはこの API にアクセスし、Kafka コンシューマーを介して手動でオフセットコミットを実行できます。 | false | Boolean |
camel.component.kafka.configuration.auto-commit-enable | true の場合、コンシューマーによってすでにフェッチされているメッセージのオフセットを ZooKeeper に定期的にコミットします。このコミットされたオフセットは、プロセスが失敗したときに、新しいコンシューマーが開始される位置として使用されます。 | true | Boolean |
camel.component.kafka.configuration.auto-commit-interval-ms | コンシューマーオフセットが Zookeeper にコミットされるミリ秒単位の頻度。 | 5000 | Integer |
camel.component.kafka.configuration.auto-commit-on-stop | コンシューマーが停止したときに明示的な自動コミットを実行して、ブローカーが最後に消費されたメッセージからコミットされていることを確認するかどうか。これには、autoCommitEnable オプションをオンにする必要があります。可能な値は、sync、async、または none です。sync がデフォルト値です。 | sync | String |
camel.component.kafka.configuration.auto-offset-reset | ZooKeeper に初期オフセットがない場合、またはオフセットが範囲外の場合の対処方法: Early : オフセットを最も古いオフセットに自動的にリセット latest : オフセットを最新のオフセットに自動的にリセット Fail: コンシューマーに例外を出力します | latest | String |
camel.component.kafka.configuration.break-on-first-error | このオプションは、コンシューマーが交換を処理していて失敗した場合に何が起こるかを制御します。オプションが false の場合、コンシューマーは次のメッセージに進み、それを処理します。オプションが true の場合、コンシューマーは中断し、失敗の原因となったメッセージのオフセットに戻ってシークし、このメッセージの処理を再試行します。ただし、これは、たとえば有害なメッセージのように毎回失敗する場合、同じメッセージの無限の処理につながる可能性があります。したがって、Camel のエラーハンドラーを使用するなどして対処することをお勧めします。 | false | Boolean |
camel.component.kafka.configuration.bridge-endpoint | オプションが true の場合、KafkaProducer は受信メッセージの KafkaConstants.TOPIC ヘッダー設定を無視します。 | false | Boolean |
camel.component.kafka.configuration.brokers | 使用する Kafka ブローカーの URL。形式は host1:port1,host2:port2 で、リストはブローカーのサブセットまたはブローカーのサブセットを指す VIP にすることができます。このオプションは、Kafka ドキュメントでは bootstrap.servers として知られています。 | String | |
camel.component.kafka.configuration.buffer-memory-size | プロデューサーが、サーバーへの送信を待機しているレコードをバッファーリングするために使用できるメモリーの合計バイト数。レコードがサーバーに配信されるよりも速く送信された場合、プロデューサはブロックするか、block.on.buffer.full で指定された設定に基づいて例外を出力します。この設定は、プロデューサが使用する合計メモリーにほぼ対応する必要があります。ただし、プロデューサが使用するすべてのメモリーがバッファーリングに使用されるわけではないため、ハードバウンドではありません。一部の追加メモリーは、圧縮 (圧縮が有効な場合) やインフライトリクエストの維持に使用されます。 | 33554432 | Integer |
camel.component.kafka.configuration.check-crcs | 消費されたレコードの CRC32 を自動的に確認します。これにより、メッセージのネットワーク上またはディスク上の破損が発生しなくなります。このチェックはオーバーヘッドを追加するため、極端なパフォーマンスを求める場合は無効になる可能性があります。 | true | Boolean |
camel.component.kafka.configuration.circular-topic-detection | オプションが true の場合、KafkaProducer は、メッセージが kafka コンシューマーからのオリジナルである場合、メッセージが送信元と同じトピックに送り返されようとしているかどうかを検出します。KafkaConstants.TOPIC ヘッダーが元の kafka コンシューマートピックと同じである場合、ヘッダー設定は無視され、プロデューサーエンドポイントのトピックが使用されます。つまり、これにより、同じメッセージが送信元に送り返されるのを回避できます。オプション bridgeEndpoint が true に設定されている場合、このオプションは使用されません。 | true | Boolean |
camel.component.kafka.configuration.client-id | クライアント ID は、呼び出しの追跡に役立つように、各要求で送信されるユーザー指定の文字列です。要求を行っているアプリケーションを論理的に識別する必要があります。 | String | |
camel.component.kafka.configuration.compression-codec | このパラメーターを使用すると、このプロデューサーによって生成されるすべてのデータの圧縮コーデックを指定できます。有効な値は none、gzip、snappy です。 | none | String |
camel.component.kafka.configuration.connection-max-idle-ms | この設定で指定された期間 (ミリ秒単位) の後にアイドル状態の接続を閉じます。 | 540000 | Integer |
camel.component.kafka.configuration.consumer-request-timeout-ms | この設定は、クライアントの要求の応答を待つ最大時間を制御します。タイムアウトが経過する前に応答が受信されない場合、クライアントは必要に応じてリクエストを再送信します。または、再試行が使い切られるとリクエストが失敗します。 | 40000 | Integer |
camel.component.kafka.configuration.consumer-streams | コンシューマー上の同時コンシューマーの数 | 10 | Integer |
camel.component.kafka.configuration.consumers-count | kafka サーバーに接続するコンシューマーの数 | 1 | Integer |
camel.component.kafka.configuration.enable-idempotence | 'true' に設定すると、プロデューサーは、プロデューサーは各メッセージのコピーが 1 つだけストリームに書き込まれるようにします。false の場合、プロデューサの再試行により、再試行されたメッセージの複製がストリームに書き込まれる可能性があります。true に設定した場合、このオプションでは max.in.flight.requests.per.connection を 1 に設定する必要があり、再試行をゼロにすることはできず、さらに ack を all に設定する必要があります。 | false | Boolean |
camel.component.kafka.configuration.fetch-max-bytes | サーバーがフェッチ要求に対して返す必要があるデータの最大量。これは絶対的な最大値ではありません。フェッチの最初の空でないパーティションの最初のメッセージがこの値よりも大きい場合でも、メッセージが返されて、コンシューマーは進歩することができます。ブローカーが受け入れる最大メッセージサイズは、message.max.bytes (ブローカー設定) または max.message.bytes (トピック設定) で定義されます。コンシューマーは複数のフェッチを並行して実行することに注意してください。 | 52428800 | Integer |
camel.component.kafka.configuration.fetch-min-bytes | サーバーがフェッチ要求に対して返す必要のあるデータの最小量。利用可能なデータが不十分な場合、リクエストは、リクエストに応答する前に、十分なデータが蓄積されるのを待ちます。 | 1 | Integer |
camel.component.kafka.configuration.fetch-wait-max-ms | すぐに fetch.min.bytes を満たすのに十分なデータがない場合に、サーバーがフェッチ要求に応答する前にブロックする最大時間 | 500 | Integer |
camel.component.kafka.configuration.group-id | このコンシューマーが属するコンシューマープロセスのグループを一意に識別する文字列。同じグループ ID を設定することにより、複数のプロセスはそれらがすべて同じコンシューマーグループの一部であることを示します。このオプションは、コンシューマーに必要です。 | String | |
camel.component.kafka.configuration.header-filter-strategy | カスタムの HeaderFilterStrategy を使用して、Camel メッセージとの間でヘッダーをフィルタリングします。 | HeaderFilterStrategy | |
camel.component.kafka.configuration.heartbeat-interval-ms | Kafka のグループ管理機能を使用する場合の、ハートビートからコンシューマーコーディネーター間の想定される時間。ハートビートは、コンシューマーのセッションがアクティブな状態を維持し、新しいコンシューマーがグループに参加したり離脱したりする際のリバランスを促進するために使用されます。この値は session.timeout.ms よりも低く設定する必要がありますが、通常はその値の 1/3 以下に設定する必要があります。さらに低く調整することで、通常のリバランスの予想時間を制御することもできます。 | 3000 | Integer |
camel.component.kafka.configuration.interceptor-classes | プロデューサーまたはコンシューマーのインターセプターを設定します。Producer インターセプターは org.apache.kafka.clients.producer.ProducerInterceptor を実装するクラスでなければなりません Consumer インターセプターは org.apache.kafka.clients.consumer.ConsumerInterceptor を実装するクラスでなければなりません実行時のクラスキャスト例外 | String | |
camel.component.kafka.configuration.kafka-header-deserializer | デシリアライゼーション用の KafkaKafkaHeaderDeserializer 値をキャメルヘッダー値に設定します。 | KafkaHeaderDeserializer | |
camel.component.kafka.configuration.kafka-header-serializer | シリアル化 camel ヘッダー値のカスタム KafkaHeaderDeserializer を kafka ヘッダー値に設定します。 | KafkaHeaderSerializer | |
camel.component.kafka.configuration.kerberos-before-relogin-min-time | 更新試行間のログインスレッドのスリープ時間。 | 60000 | Integer |
camel.component.kafka.configuration.kerberos-init-cmd | Kerberos kinit コマンドパス。デフォルトは/usr/bin/kinit です | /usr/bin/kinit | String |
camel.component.kafka.configuration.kerberos-principal-to-local-rules | プリンシパル名から短縮名 (通常はオペレーティングシステムのユーザー名) にマッピングするためのルールの一覧です。ルールは順番に評価され、プリンシパル名と一致する最初のルールは、これを短縮名にマップするために使用されます。一覧の後続のルールは無視されます。デフォルトでは、username/hostnameREALM 形式のプリンシパル名は username にマッピングされます。形式の詳細は、security authorization および acls を参照してください。複数の値はコンマで区切ることができます | DEFAULT | String |
camel.component.kafka.configuration.kerberos-renew-jitter | 更新時間に追加されたランダムなジッターの割合。 | double | |
camel.component.kafka.configuration.kerberos-renew-window-factor | ログインスレッドは、最後の更新からチケットの有効期限までの指定された時間のウィンドウファクターに達するまでスリープし、その時点でチケットの更新を試みます。 | double | |
camel.component.kafka.configuration.key | レコードキー (キーが指定されていない場合は null)。このオプションが設定されている場合、ヘッダー KafkaConstants#KEY よりも優先されます | String | |
camel.component.kafka.configuration.key-deserializer | Deserializer インターフェイスを実装する key の Deserializer クラス。 | org.apache.kafka.common.serialization.StringDeserializer | String |
camel.component.kafka.configuration.key-serializer-class | キーのシリアライザクラス (何も指定されていない場合、デフォルトはメッセージと同じになります)。 | org.apache.kafka.common.serialization.StringSerializer | String |
camel.component.kafka.configuration.linger-ms | プロデューサーは、リクエストの送信の間に到着したレコードを 1 つのバッチリクエストにグループ化します。通常、これは、レコードが送信できるよりも早く到着した場合に、負荷がかかった状態でのみ発生します。ただし、状況によっては、中程度の負荷がかかっている場合でも、クライアントがリクエストの数を減らす場合があります。この設定は、少量の人為的な遅延を追加することでこれを実現します。つまり、レコードをすぐに送信するのではなく、プロデューサーは指定された遅延まで待機して他のレコードを送信できるようにし、送信をまとめてバッチ処理できるようにします。これは、TCP の Nagle アルゴリズムに類似するものと考えることができます。この設定は、バッチ処理の遅延の上限を提供します。あるパーティションで batch.size 相当のレコードを取得すると、この設定に関係なくすぐに送信されますが、このパーティションで蓄積されたバイト数がこれより少ない場合は、指定された時間の間、さらにレコードが取得されるのを待つことになります。デフォルトは 0 (つまり遅延なし) に設定されます。たとえば、linger.ms=5 を設定すると、送信されるリクエストの数が減りますが、負荷がない状態で送信されるレコードに最大 5 ミリ秒のレイテンシーが追加されます。 | 0 | Integer |
camel.component.kafka.configuration.max-block-ms | 設定は、kafka への送信がブロックされる時間を制御します。これらのメソッドは、複数の理由でブロックされる可能性があります。例: バッファーがいっぱい、メタデータが利用できない。この設定では、メタデータのフェッチ、キーと値のシリアル化、send () を実行するときのバッファーメモリーの分割と割り当てに費やされる合計時間に最大制限が課されます。partitionsFor () の場合、この設定はメタデータの待機に最大時間のしきい値を課します | 60000 | Integer |
camel.component.kafka.configuration.max-in-flight-request | ブロックする前にクライアントが 1 つの接続で送信する確認されていないリクエストの最大数。この設定が 1 より大きい値に設定されていて、送信に失敗した場合、再試行によりメッセージの順序が変更されるリスクがあることに注意してください (つまり、再試行が有効になっている場合)。 | 5 | Integer |
camel.component.kafka.configuration.max-partition-fetch-bytes | サーバーが返すパーティションごとのデータの最大量。リクエストに使用される最大合計メモリーは #partitions max.partition.fetch.bytes になります。このサイズは、少なくともサーバーが許可する最大メッセージサイズと同じである必要があります。そうしないと、プロデューサーがコンシューマーがフェッチできるよりも大きなメッセージを送信する可能性があります。その場合、コンシューマーは特定のパーティションで大きなメッセージを取得しようとしてスタックする可能性があります。 | 1048576 | Integer |
camel.component.kafka.configuration.max-poll-interval-ms | コンシューマーグループ管理を使用する場合の poll() の呼び出し間の最大遅延。これにより、コンシューマーがさらにレコードをフェッチする前にアイドル状態になることができる時間に上限が設定されます。このタイムアウトの期限が切れる前に poll() が呼び出されない場合、コンシューマーは失敗とみなされ、グループはパーティションを別のメンバーに再割り当てするためにリバランスします。 | Long | |
camel.component.kafka.configuration.max-poll-records | poll() への単一の呼び出しで返される最大レコード数 | 500 | Integer |
camel.component.kafka.configuration.max-request-size | リクエストの最大サイズ。これは事実上、最大レコードサイズの上限でもあります。サーバーには、これとは異なる場合がある独自のレコードサイズの上限があることに注意してください。この設定により、プロデューサーが 1 回のリクエストで送信するレコードバッチの数が制限され、大量のリクエストが送信されないようになります。 | 1048576 | Integer |
camel.component.kafka.configuration.metadata-max-age-ms | 新しいブローカーまたはパーティションをプロアクティブに検出するためのパーティションリーダーシップの変更がない場合でも、メタデータの更新を強制するまでの期間 (ミリ秒単位)。 | 300000 | Integer |
camel.component.kafka.configuration.metric-reporters | メトリクスレポーターとして使用するクラスの一覧。MetricReporter インターフェイスを実装すると、新しいメトリックの作成が通知されるクラスをプラグインできます。JmxReporter は、JMX 統計を登録するために常に含まれます。 | String | |
camel.component.kafka.configuration.metrics-sample-window-ms | メトリクスを計算するために保持されるサンプルの数。 | 30000 | Integer |
camel.component.kafka.configuration.no-of-metrics-sample | メトリクスを計算するために保持されるサンプルの数。 | 2 | Integer |
camel.component.kafka.configuration.offset-repository | トピックの各パーティションのオフセットをローカルに保存するために使用するオフセットリポジトリー。定義すると、自動コミットが無効になります。 | StateRepository | |
camel.component.kafka.configuration.partition-assignor | グループ管理が使用されている場合に、クライアントがコンシューマーインスタンス間でパーティションの所有権を分散するために使用するパーティション割り当て戦略のクラス名 | org.apache.kafka.clients.consumer.RangeAssignor | String |
camel.component.kafka.configuration.partition-key | レコードの送信先のパーティション (パーティションが指定されていない場合は null)。このオプションが設定されている場合、ヘッダー KafkaConstants#PARTITION_KEY よりも優先されます | Integer | |
camel.component.kafka.configuration.partitioner | サブトピック間でメッセージを分割するパーティショナークラス。デフォルトのパーティショナーは、キーのハッシュに基づいています。 | org.apache.kafka.clients.producer.internals.DefaultPartitioner | String |
camel.component.kafka.configuration.poll-timeout-ms | KafkaConsumer をポーリングするときに使用されるタイムアウト。 | 5000 | Long |
camel.component.kafka.configuration.producer-batch-size | 複数のレコードが同じパーティションに送信されるときは常に、プロデューサーはレコードをまとめてより少ない要求にバッチ処理しようとします。これにより、クライアントとサーバーの両方でパフォーマンスが向上します。この設定では、デフォルトのバッチサイズをバイト単位で制御します。このサイズより大きいバッチレコードは試行されません。ブローカーに送信されるリクエストには、複数のバッチが含まれ、送信可能なデータを含む各パーティションに 1 つずつ含まれます。バッチサイズが小さいと、バッチ処理が一般的ではなくなり、スループット (バッチサイズゼロの場合、バッチ処理が完全に無効になります)。バッチサイズが非常に大きい場合は、追加のレコードを想定して、常に指定のバッチサイズのバッファーを割り当てるため、メモリーを多少無駄に使用する可能性があります。 | 16384 | Integer |
camel.component.kafka.configuration.queue-buffering-max-messages | プロデューサをブロックするか、データを削除する前に、非同期モードを使用するときにプロデューサのキューに入れることができる未送信メッセージの最大数。 | 10000 | Integer |
camel.component.kafka.configuration.receive-buffer-bytes | データの読み取り時に使用する TCP 受信バッファー (SO_RCVBUF) のサイズ。 | 65536 | Integer |
camel.component.kafka.configuration.reconnect-backoff-max-ms | 接続に繰り返し失敗したブローカーへの再接続時に待機する最大時間 (ミリ秒単位)。これが指定されている場合、ホストごとのバックオフは、連続して接続に失敗するたびに、この最大値まで指数関数的に増加します。バックオフの増加を計算した後、コネクションストームを回避するために 20% のランダムなジッターが追加されます。 | 1000 | Integer |
camel.component.kafka.configuration.reconnect-backoff-ms | 特定のホストへの再接続を試行するまでの待機時間。これにより、タイトなループでホストに繰り返し接続することを回避します。このバックオフは、コンシューマーからブローカーに送信されるすべてのリクエストに適用されます。 | 50 | Integer |
camel.component.kafka.configuration.record-metadata | プロデューサが Kafka への送信から RecordMetadata の結果を保存する必要があるかどうか。結果は、RecordMetadata メタデータを含む List に保存されます。リストは、キー KafkaConstants#KAFKA_RECORDMETA を持つヘッダーに保存されます | true | Boolean |
camel.component.kafka.configuration.request-required-acks | リクエストが完了したと見なす前に、プロデューサーがリーダーに受け取ったことを要求する確認の数。これは、送信されるレコードの耐久性を制御します。次の設定が一般的です: acks=0 ゼロに設定すると、プロデューサはサーバーからの確認をまったく待ちません。レコードは直ちにソケットバッファーに追加され、送信済みと見なされます。この場合、サーバーがレコードを受信したかどうかは保証されず、retries の設定は有効になりません (クライアントは通常、失敗を知ることができないからです)。各レコードに返されるオフセットは常に -1 に設定されます。acks=1 これは、リーダーがレコードをローカルログに書き込みますが、すべてのフォロワーからの完全な承認を待たずに応答することを意味します。この場合、レコードを承認した直後にリーダーが失敗したが、フォロワーがそれを複製する前に、レコードは失われます。acks=all これは、リーダーが同期レプリカの完全なセットがレコードを承認するまで待機することを意味します。これにより、少なくとも 1 つの In-Sync レプリカが動作している限り、レコードが失われないことが保証されます。これは利用可能な最強の保証になります。 | 1 | String |
camel.component.kafka.configuration.request-timeout-ms | クライアントにエラーを返す前に、ブローカーが request.required.acks 要件を満たすために待機する時間。 | 305000 | Integer |
camel.component.kafka.configuration.retries | ゼロより大きい値を設定すると、クライアントは、一時的なエラーの可能性により送信に失敗したレコードを再送信します。この再試行は、クライアントがエラーを受信したときにレコードを再送した場合と同じであることに注意してください。再試行を許可すると、レコードの順序が変更される可能性があります。これは、2 つのレコードが 1 つのパーティションに送信され、最初のレコードが失敗して再試行され、2 番目のレコードが成功した場合、2 番目のレコードが最初に表示される可能性があるためです。 | 0 | Integer |
camel.component.kafka.configuration.retry-backoff-ms | 各再試行の前に、プロデューサーは関連するトピックのメタデータを更新して、新しいリーダーが選出されたかどうかを確認します。リーダーの選択には少し時間がかかるため、このプロパティーはプロデューサーがメタデータを更新するまで待機する時間を指定します。 | 100 | Integer |
camel.component.kafka.configuration.sasl-jaas-config | kafka sasl.jaas.config パラメーターを公開します。例: org.apache.kafka.common.security.plain.PlainLoginModule required username=USERNAME password=PASSWORD; | String | |
camel.component.kafka.configuration.sasl-kerberos-service-name | Kafka が実行される Kerberos プリンシパル名。これは、Kafka の JAAS 設定または Kafka の設定で定義できます。 | String | |
camel.component.kafka.configuration.sasl-mechanism | 使用される Simple Authentication and Security Layer(SASL) メカニズム。有効な値については、http://www.iana.org/assignments/sasl-mechanisms/sasl-mechanisms.xhtml を参照してください。 | GSSAPI | String |
camel.component.kafka.configuration.security-protocol | ブローカーとの通信に使用されるプロトコル。現在、PLAINTEXT と SSL のみがサポートされています。 | PLAINTEXT | String |
camel.component.kafka.configuration.seek-to | KafkaConsumer が起動時に最初または最後から読み取るかどうかを設定します。begin : 最初から読み取る end : 最後から読み取るこれは、以前のプロパティー seekToBeginning を置き換えています | String | |
camel.component.kafka.configuration.send-buffer-bytes | ソケット書き込みバッファーサイズ | 131072 | Integer |
camel.component.kafka.configuration.serializer-class | メッセージのシリアライザクラス。 | org.apache.kafka.common.serialization.StringSerializer | String |
camel.component.kafka.configuration.session-timeout-ms | Kafka のグループ管理機能を使用するときに障害を検出するために使用されるタイムアウト。 | 10000 | Integer |
camel.component.kafka.configuration.ssl-cipher-suites | 暗号化スイートの一覧。これは、TLS または SSL ネットワークプロトコルを使用してネットワーク接続のセキュリティー設定をネゴシエートするために使用される、認証、暗号化、MAC、およびキー交換アルゴリズムの名前付きの組み合わせです。デフォルトでは、利用可能なすべての暗号スイートがサポートされています。 | String | |
camel.component.kafka.configuration.ssl-context-parameters | Camel SSLContextParameters オブジェクトを使用した SSL 設定。設定されている場合、他の SSL エンドポイントパラメーターの前に適用されます。 | SSLContextParameters | |
camel.component.kafka.configuration.ssl-enabled-protocols | SSL 接続で有効なプロトコルの一覧。TLSv1.2、TLSv1.1、および TLSv1 はデフォルトで有効になっています。 | TLSv1.2,TLSv1.1,TLSv1 | String |
camel.component.kafka.configuration.ssl-endpoint-algorithm | サーバー証明書を使用してサーバーのホスト名を検証するエンドポイント識別アルゴリズム。 | String | |
camel.component.kafka.configuration.ssl-key-password | キーストアファイル内の秘密キーのパスワード。これはクライアントにとってオプションになります。 | String | |
camel.component.kafka.configuration.ssl-keymanager-algorithm | SSL 接続のキーマネージャーファクトリーによって使用されるアルゴリズム。デフォルト値は、Java 仮想マシンに設定されたキーマネージャーファクトリーアルゴリズムです。 | SunX509 | String |
camel.component.kafka.configuration.ssl-keystore-location | キーストアファイルのロケーション。これはクライアントではオプションで、クライアントの双方向認証に使用できます。 | String | |
camel.component.kafka.configuration.ssl-keystore-password | キーストアファイルのストアパスワード。これはクライアントのオプションであり、ssl.keystore.location が設定されている場合にのみ必要です。 | String | |
camel.component.kafka.configuration.ssl-keystore-type | キーストアファイルのファイル形式。これはクライアントにとってオプションになります。デフォルト値は JKS です | JKS | String |
camel.component.kafka.configuration.ssl-protocol | SSLContext の生成に使用される SSL プロトコル。デフォルト設定は TLS で、ほとんどの場合はこれで問題ありません。最近の JVM で許可されている値は、TLS、TLSv1.1、および TLSv1.2 です。SSL、SSLv2、および SSLv3 は古い JVM でサポートされている可能性がありますが、セキュリティーの脆弱性が知られているため、それらの使用はお勧めできません。 | TLS | String |
camel.component.kafka.configuration.ssl-provider | SSL 接続に使用されるセキュリティープロバイダーの名前。デフォルト値は JVM のデフォルトのセキュリティープロバイダーです。 | String | |
camel.component.kafka.configuration.ssl-trustmanager-algorithm | SSL 接続のトラストマネージャーファクトリーによって使用されるアルゴリズム。デフォルト値は、Java 仮想マシンに設定されたトラストマネージャーファクトリーアルゴリズムです。 | PKIX | String |
camel.component.kafka.configuration.ssl-truststore-location | トラストストアファイルのロケーション。 | String | |
camel.component.kafka.configuration.ssl-truststore-password | トラストストアファイルのパスワード。 | String | |
camel.component.kafka.configuration.ssl-truststore-type | トラストストアファイルのファイル形式。デフォルト値は JKS です。 | JKS | String |
camel.component.kafka.configuration.topic | 使用するトピックの名前。コンシューマーでは、コンマを使用して複数のトピックを区切ることができます。プロデューサーは、1 つのトピックにのみメッセージを送信できます。 | String | |
camel.component.kafka.configuration.topic-is-pattern | トピックがパターン (正規表現) であるかどうか。これを使用して、パターンに一致する動的な数のトピックをサブスクライブできます。 | false | Boolean |
camel.component.kafka.configuration.value-deserializer | Deserializer インターフェイスを実装する値の Deserializer クラス。 | org.apache.kafka.common.serialization.StringDeserializer | String |
camel.component.kafka.configuration.worker-pool | カスタムワーカープールを使用して、kafka サーバーが非同期のノンブロッキング処理を使用して KafkaProducer から送信されたメッセージを確認した後、Exchange のルーティングを続行します。 | ExecutorService | |
camel.component.kafka.configuration.worker-pool-core-size | Kafka サーバーが非同期のノンブロッキング処理を使用して KafkaProducer から送信されたメッセージを確認した後、Exchange のルーティングを続行するためのワーカープールのコアスレッドの数。 | 10 | Integer |
camel.component.kafka.configuration.worker-pool-max-size | Kafka サーバーが、非同期のノンブロッキング処理を使用して KafkaProducer から送信されたメッセージを確認した後、Exchange のルーティングを続行するためのワーカープールのスレッドの最大数。 | 20 | Integer |
camel.component.kafka.enabled | Kafka コンポーネントを有効にする | true | Boolean |
camel.component.kafka.kafka-manual-commit-factory | KafkaManualCommit インスタンスの作成に使用するファクトリー。これにより、カスタムファクトリーをプラグインしてカスタム KafkaManualCommit インスタンスを作成できます。これは、すぐに使用できるデフォルトの実装から逸脱する手動コミットを行うときに特別なロジックが必要な場合に備えています。オプションは org.apache.camel.component.kafka.KafkaManualCommitFactory タイプです。 | String | |
camel.component.kafka.resolve-property-placeholders | 起動時にコンポーネントがプロパティープレースホルダーを解決するかどうか。String タイプのプロパティーのみがプロパティープレースホルダーを使用できます。 | true | Boolean |
camel.component.kafka.shutdown-timeout | コンシューマーまたはプロデューサがワーカースレッドをシャットダウンして終了するまで正常に待機するためのミリ秒単位のタイムアウト。 | 30000 | Integer |
camel.component.kafka.use-global-ssl-context-parameters | グローバル SSL コンテキストパラメーターの使用を有効にします。 | false | Boolean |
camel.component.kafka.worker-pool | 共有カスタムワーカープールを使用して、kafka サーバーが非同期のノンブロッキング処理を使用して KafkaProducer から送信されたメッセージを確認した後、Exchange のルーティングを続行します。このオプションを使用する場合は、スレッドプールのライフサイクルを処理して、不要になったときにプールをシャットダウンする必要があります。オプションは java.util.concurrent.ExecutorService タイプです。 | String |
Producer/Consumer 設定の詳細については、以下を参照してください。
http://kafka.apache.org/documentation.html#newconsumerconfigs http://kafka.apache.org/documentation.html#producerconfigs