34.4. エンドポイントオプション
Kafka エンドポイントは、URI 構文を使用して設定されます。
kafka:topic
kafka:topic
パスおよびクエリーパラメーターを使用します。
34.4.1. パスパラメーター(1 パラメーター) リンクのコピーリンクがクリップボードにコピーされました!
名前 | 説明 | デフォルト | タイプ |
---|---|---|---|
topic (共通) | 必須 使用するトピックの名前。consumer では、コンマを使用して複数のトピックを区切ることができます。producer は、1 つのトピックにのみメッセージを送信できます。 | String |
34.4.2. クエリーパラメーター (102 パラメーター) リンクのコピーリンクがクリップボードにコピーされました!
名前 | 説明 | デフォルト | タイプ |
---|---|---|---|
additionalProperties (共通) | camel 設定で直接設定できない場合に備えて、kafka consumer または kafka producer のいずれかに追加のプロパティーを設定します (例: Camel 設定にまだ反映されていない新しい Kafka プロパティー)。プロパティーには additionalProperties を接頭辞として付ける必要があります。たとえば、additionalProperties.transactional.id=12345&additionalProperties.schema.registry.url=http://localhost:8811/avro です。 | マップ | |
brokers (共通) | 使用する Kafka ブローカーの URL。形式は host1:port1,host2:port2 で、リストはブローカーのサブセットまたはブローカーのサブセットを指す VIP にすることができます。このオプションは、Kafka ドキュメントでは bootstrap.servers として知られています。 | String | |
clientId (共通) | クライアント ID は、呼び出しの追跡に役立つように、各要求で送信されるユーザー指定の文字列です。要求を行っているアプリケーションを論理的に識別する必要があります。 | String | |
headerFilterStrategy (共通) | カスタムの HeaderFilterStrategy を使用して、Camel メッセージとの間でヘッダーをフィルタリングします。 | HeaderFilterStrategy | |
reconnectBackoffMaxMs (共通) | 接続に繰り返し失敗したブローカーへの再接続時に待機する最大時間 (ミリ秒単位)。これが指定されている場合、ホストごとのバックオフは、連続して接続に失敗するたびに、この最大値まで指数関数的に増加します。バックオフの増加を計算した後、コネクションストームを回避するために 20% のランダムなジッターが追加されます。 | 1000 | Integer |
shutdownTimeout (共通) | consumer または producer がワーカースレッドをシャットダウンして終了するまで正常に待機するためのミリ秒単位のタイムアウト。 | 30000 | int |
allowManualCommit (consumer) | KafkaManualCommit による手動コミットを許可するかどうか。このオプションを有効にすると、KafkaManualCommit のインスタンスが Exchange メッセージヘッダーに格納されます。これにより、エンドユーザーはこの API にアクセスし、Kafka consumer を介して手動でオフセットコミットを実行できます。 | false | boolean |
autoCommitEnable (consumer) | true の場合、consumer によってすでにフェッチされているメッセージのオフセットを ZooKeeper に定期的にコミットします。このコミットされたオフセットは、プロセスが失敗したときに、新しい consumer が開始される位置として使用されます。 | true | Boolean |
autoCommitIntervalMs (consumer) | consumer オフセットが Zookeeper にコミットされるミリ秒単位の頻度。 | 5000 | Integer |
autoCommitOnStop (consumer) | consumer が停止したときに明示的な自動コミットを実行して、ブローカーが最後に消費されたメッセージからコミットされていることを確認するかどうか。これには、autoCommitEnable オプションをオンにする必要があります。可能な値は、sync、async、または none です。sync がデフォルト値です。 列挙値:
| sync | String |
autoOffsetReset (consumer) | ZooKeeper に初期オフセットがない場合、またはオフセットが範囲外の場合の対処方法: Early : オフセットを最も古いオフセットに自動的にリセット latest : オフセットを最新のオフセットに自動的にリセット Fail: consumer に例外を出力します。 列挙値:
| latest | String |
breakOnFirstError (consumer) | このオプションは、consumer が交換を処理していて失敗した場合に何が起こるかを制御します。オプションが false の場合、consumer は次のメッセージに進み、それを処理します。オプションが true の場合、consumer は中断し、失敗の原因となったメッセージのオフセットに戻ってシークし、このメッセージの処理を再試行します。ただし、これは、たとえば有害なメッセージのように毎回失敗する場合、同じメッセージの無限の処理につながる可能性があります。したがって、Camel のエラーハンドラーを使用するなどして対処することをお勧めします。 | false | boolean |
bridgeErrorHandler (consumer) | consumer の Camel ルーティングエラーハンドラーへのブリッジを許可します。よって、consumer が受信メッセージなどの取得を試行している間に発生した例外は、メッセージとして処理され、ルーティングエラーハンドラーによって処理されます。デフォルトでは、consumer は org.apache.camel.spi.ExceptionHandler を使用して例外に対応し、WARN または ERROR レベルでログに記録され、無視されます。 | false | boolean |
checkCrcs (consumer) | 消費されたレコードの CRC32 を自動的に確認します。これにより、メッセージのネットワーク上またはディスク上の破損が発生しなくなります。このチェックはオーバーヘッドを追加するため、極端なパフォーマンスを求める場合は無効になる可能性があります。 | true | Boolean |
commitTimeoutMs (consumer) | 同期コミットが完了するまでコードが待機する最大時間 (ミリ秒単位)。 | 5000 | Long |
consumerRequestTimeoutMs (consumer) | この設定は、クライアントの要求の応答を待つ最大時間を制御します。タイムアウトが経過する前に応答が受信されない場合、クライアントは必要に応じてリクエストを再送信します。または、再試行が使い切られるとリクエストが失敗します。 | 40000 | Integer |
consumersCount (consumer) | kafka サーバーに接続する consumer の数。各 consumer は、受信データを取得して処理する個別のスレッドで実行されます。 | 1 | int |
fetchMaxBytes (consumer) | サーバーがフェッチ要求に対して返す必要があるデータの最大量。これは絶対的な最大値ではありません。フェッチの最初の空でないパーティションの最初のメッセージがこの値よりも大きい場合でも、メッセージが返されて、consumer は進歩することができます。ブローカーが受け入れる最大メッセージサイズは、message.max.bytes (ブローカー設定) または max.message.bytes (トピック設定) で定義されます。consumer は複数のフェッチを並行して実行することに注意してください。 | 52428800 | Integer |
fetchMinBytes (consumer) | サーバーがフェッチ要求に対して返す必要のあるデータの最小量。利用可能なデータが不十分な場合、リクエストは、リクエストに応答する前に、十分なデータが蓄積されるのを待ちます。 | 1 | Integer |
fetchWaitMaxMs (consumer) | すぐに fetch.min.bytes を満たすのに十分なデータがない場合に、サーバーがフェッチ要求に応答する前にブロックする最大時間。 | 500 | Integer |
groupId (consumer) | この consumer が属する consumer プロセスのグループを一意に識別する文字列。同じグループ ID を設定することにより、複数のプロセスはそれらがすべて同じ consumer グループの一部であることを示します。このオプションは、consumer に必要です。 | String | |
groupInstanceId (consumer) | エンドユーザーが提供する consumer インスタンスの一意の識別子。non-empty strings のみが許可されます。設定されている場合、consumer は静的メンバーとして扱われます。つまり、常に、この ID を持つ 1 つのインスタンスのみが consumer グループで許可されます。これは、より大きなセッションタイムアウトと組み合わせて使用して、一時的な利用不可 (プロセス再起動など) によるグループのリバランスを回避します。設定しないと、consumer は従来の動作である動的メンバーとしてグループに参加します。 | String | |
headerDeserializer (consumer) | カスタム KafkaHeaderDeserializer を使用して、kafka ヘッダー値を逆シリアル化します。 | KafkaHeaderDeserializer | |
heartbeatIntervalMs (consumer) | Kafka のグループ管理機能を使用する場合の、ハートビートから consumerコーディネーター間の想定される時間。ハートビートは、consumer のセッションがアクティブな状態を維持し、新しい consumer がグループに参加したり離脱したりする際のリバランスを促進するために使用されます。この値は session.timeout.ms よりも低く設定する必要がありますが、通常はその値の 1/3 以下に設定する必要があります。さらに低く調整することで、通常のリバランスの予想時間を制御することもできます。 | 3000 | Integer |
keyDeserializer (consumer) | Deserializer インターフェイスを実装する key の Deserializer クラス。 | org.apache.kafka.common.serialization.StringDeserializer | String |
maxPartitionFetchBytes (consumer) | サーバーが返すパーティションごとのデータの最大量。リクエストに使用される最大合計メモリーは #partitions max.partition.fetch.bytes になります。このサイズは、少なくともサーバーが許可する最大メッセージサイズと同じである必要があります。そうしないと、producer が consumer がフェッチできるよりも大きなメッセージを送信する可能性があります。その場合、consumer は特定のパーティションで大きなメッセージを取得しようとしてスタックする可能性があります。 | 1048576 | Integer |
maxPollIntervalMs (consumer) | consumer グループ管理を使用する場合の poll() の呼び出し間の最大遅延。これにより、consumer がさらにレコードをフェッチする前にアイドル状態になることができる時間に上限が設定されます。このタイムアウトの期限が切れる前に poll() が呼び出されない場合、consumer は失敗とみなされ、グループはパーティションを別のメンバーに再割り当てするためにリバランスします。 | Long | |
maxPollRecords (consumer) | poll() への単一の呼び出しで返される最大レコード数。 | 500 | Integer |
offsetRepository (consumer) | トピックの各パーティションのオフセットをローカルに保存するために使用するオフセットリポジトリー。定義すると、自動コミットが無効になります。 | StateRepository | |
partitionAssignor (consumer) | グループ管理が使用されている場合に、クライアントが consumer インスタンス間でパーティションの所有権を分散するために使用するパーティション割り当て戦略のクラス名。 | org.apache.kafka.clients.consumer.RangeAssignor | String |
pollOnError (consumer) | 新しいメッセージのポーリング中に、kafka が例外を出力した場合のアクション。エンドポイントレベルで明示的な値が設定されていない限り、デフォルトでコンポーネント設定の値が使用されます。DISCARD はメッセージを破棄し、次のメッセージのポーリングを続行します。ERROR_HANDLER は Camel のエラーハンドラーを使用して例外を処理し、その後、次のメッセージのポーリングを続行します。RECONNECT は consumer に再接続し、メッセージのポーリングを再試行します RETRY は consumer が同じメッセージのポーリングを再試行できるようにします STOP は consumer を停止します (consumer がメッセージを再び消費できるようにする必要がある場合は、手動で開始/再起動する必要があります)。 列挙値:
| ERROR_HANDLER | PollOnError |
pollTimeoutMs (consumer) | KafkaConsumer をポーリングするときに使用されるタイムアウト。 | 5000 | Long |
resumeStrategy (consumer) | このオプションを使用すると、ユーザーはカスタムの再開方法を設定できます。再開戦略は、パーティションが割り当てられたとき (つまり、接続時または再接続時) に実行されます。これにより、実装は操作を再開する方法をカスタマイズし、seekTo および offsetRepository メカニズムのより柔軟な代替手段として機能できます。実装の詳細については、KafkaConsumerResumeStrategy を参照してください。このオプションは、自動コミット設定には影響しません。この設定を使用する実装は、これと一緒に手動コミットオプションを使用して評価することも必要になる可能性があります。 | KafkaConsumerResumeStrategy | |
seekTo (consumer) | KafkaConsumer が起動時に最初または最後から読み取るかどうかを設定します。begin : 最初から読み取る end : 最後から読み取るこれは、以前のプロパティー seekToBeginning を置き換えています。 列挙値:
| String | |
sessionTimeoutMs (consumer) | Kafka のグループ管理機能を使用するときに障害を検出するために使用されるタイムアウト。 | 10000 | Integer |
specificAvroReader (consumer) | これにより、Confluent Platform スキーマレジストリーおよび io.confluent.kafka.serializers.KafkaAvroDeserializer で使用する特定の Avro リーダーを使用できるようになります。このオプションは、Confluent Platform (標準の Apache Kafka ではない) でのみ使用できます。 | false | boolean |
topicIsPattern (consumer) | トピックがパターン (正規表現) であるかどうか。これを使用して、パターンに一致する動的な数のトピックをサブスクライブできます。 | false | boolean |
valueDeserializer (consumer) | Deserializer インターフェイスを実装する値の Deserializer クラス。 | org.apache.kafka.common.serialization.StringDeserializer | String |
exceptionHandler (consumer (上級)) | consumer によるカスタム ExceptionHandler の使用を許可します。bridgeErrorHandler オプションが有効な場合は、このオプションは使用されないことに注意してください。デフォルトでは、consumer は例外に対応し、WARN または ERROR レベルでログに記録され、無視されます。 | ExceptionHandler | |
exchangePattern (consumer (上級)) | consumer がエクスチェンジを作成する際に交換パターンを設定します。 列挙値:
| ExchangePattern | |
kafkaManualCommitFactory (consumer (上級)) | KafkaManualCommit インスタンスの作成に使用するファクトリー。これにより、カスタムファクトリーをプラグインしてカスタム KafkaManualCommit インスタンスを作成できます。これは、すぐに使用できるデフォルトの実装から逸脱する手動コミットを行うときに特別なロジックが必要な場合に備えています。 | KafkaManualCommitFactory | |
bufferMemorySize (producer) | producer が、サーバーへの送信を待機しているレコードをバッファーリングするために使用できるメモリーの合計バイト数。レコードがサーバーに配信されるよりも速く送信された場合、プロデューサはブロックするか、block.on.buffer.full で指定された設定に基づいて例外を出力します。この設定は、プロデューサが使用する合計メモリーにほぼ対応する必要があります。ただし、プロデューサが使用するすべてのメモリーがバッファーリングに使用されるわけではないため、ハードバウンドではありません。一部の追加メモリーは、圧縮 (圧縮が有効な場合) やインフライトリクエストの維持に使用されます。 | 33554432 | Integer |
compressionCodec (producer) | このパラメーターを使用すると、この producer によって生成されるすべてのデータの圧縮コーデックを指定できます。有効な値は none、gzip、snappy です。 列挙値:
| none | String |
connectionMaxIdleMs (producer) | この設定で指定された期間 (ミリ秒単位) の後にアイドル状態の接続を閉じます。 | 540000 | Integer |
deliveryTimeoutMs (producer) | send() の呼び出しが返された後、成功または失敗を報告する時間の上限。これにより、送信前にレコードが遅延する合計時間、ブローカーから確認応答を待つ時間 (予想される場合)、および再試行可能な送信の失敗に許容される時間が制限されます。 | 120000 | Integer |
enableIdempotence (producer) | 'true' に設定すると、producer は、各メッセージのコピーが 1 つだけストリームに書き込まれるようにします。false の場合、プロデューサの再試行により、再試行されたメッセージの複製がストリームに書き込まれる可能性があります。true に設定した場合、このオプションでは max.in.flight.requests.per.connection を 1 に設定する必要があり、再試行をゼロにすることはできず、さらに ack を all に設定する必要があります。 | false | boolean |
headerSerializer (producer) | カスタム KafkaHeaderSerializer を使用して、kafka ヘッダー値をシリアル化します。 | KafkaHeaderSerializer | |
key (producer) | レコードキー (キーが指定されていない場合は null)。このオプションが設定されている場合、ヘッダー KafkaConstants#KEY よりも優先されます。 | String | |
keySerializer (producer) | キーのシリアライザクラス (何も指定されていない場合、デフォルトはメッセージと同じになります)。 | org.apache.kafka.common.serialization.StringSerializer | String |
lazyStartProducer (producer) | 最初のメッセージで producer をレイジーに起動すべきかどうか。レイジーに起動することで、起動時に producer が失敗し、それによりルートが失敗する可能性がある状況で、CamelContext およびルートの起動を許可します。レイジーな起動を延期すると、Camel のルーティングエラーハンドラー経由でメッセージのルーティング中に起動の失敗を処理できます。最初のメッセージが処理されるときに、producer の作成および起動に若干時間がかかり、合計処理時間が長くなる可能性があることに注意してください。 | false | boolean |
lingerMs (producer) | producer は、リクエストの送信の間に到着したレコードを 1 つのバッチリクエストにグループ化します。通常、これは、レコードが送信できるよりも早く到着した場合に、負荷がかかった状態でのみ発生します。ただし、状況によっては、中程度の負荷がかかっている場合でも、クライアントがリクエストの数を減らす場合があります。この設定は、少量の人為的な遅延を追加することでこれを実現します。つまり、レコードをすぐに送信するのではなく、producer は指定された遅延まで待機して他のレコードを送信できるようにし、送信をまとめてバッチ処理できるようにします。これは、TCP の Nagle アルゴリズムに類似するものと考えることができます。この設定は、バッチ処理の遅延の上限を提供します。あるパーティションで batch.size 相当のレコードを取得すると、この設定に関係なくすぐに送信されますが、このパーティションで蓄積されたバイト数がこれより少ない場合は、指定された時間の間、さらにレコードが取得されるのを待つことになります。デフォルトは 0 (つまり遅延なし) に設定されます。たとえば、linger.ms=5 を設定すると、送信されるリクエストの数が減りますが、負荷がない状態で送信されるレコードに最大 5 ミリ秒のレイテンシーが追加されます。 | 0 | Integer |
maxBlockMs (producer) | 設定は、kafka への送信がブロックされる時間を制御します。これらのメソッドは、複数の理由でブロックされる可能性があります。例: バッファーがいっぱい、メタデータが利用できない。この設定では、メタデータのフェッチ、キーと値のシリアル化、send () を実行するときのバッファーメモリーの分割と割り当てに費やされる合計時間に最大制限が課されます。partitionsFor () の場合、この設定はメタデータの待機に最大時間のしきい値を課します。 | 60000 | Integer |
maxInFlightRequest (producer) | ブロックする前にクライアントが 1 つの接続で送信する確認されていないリクエストの最大数。この設定が 1 より大きい値に設定されていて、送信に失敗した場合、再試行によりメッセージの順序が変更されるリスクがあることに注意してください (つまり、再試行が有効になっている場合)。 | 5 | Integer |
maxRequestSize (producer) | リクエストの最大サイズ。これは事実上、最大レコードサイズの上限でもあります。サーバーには、これとは異なる場合がある独自のレコードサイズの上限があることに注意してください。この設定により、producer が 1 回のリクエストで送信するレコードバッチの数が制限され、大量のリクエストが送信されないようになります。 | 1048576 | Integer |
metadataMaxAgeMs (producer) | 新しいブローカーまたはパーティションをプロアクティブに検出するためのパーティションリーダーシップの変更がない場合でも、メタデータの更新を強制するまでの期間 (ミリ秒単位)。 | 300000 | Integer |
metricReporters (producer) | メトリクスレポーターとして使用するクラスの一覧。MetricReporter インターフェイスを実装すると、新しいメトリックの作成が通知されるクラスをプラグインできます。JmxReporter は、JMX 統計を登録するために常に含まれます。 | String | |
metricsSampleWindowMs (producer) | メトリクスを計算するために保持されるサンプルの数。 | 30000 | Integer |
noOfMetricsSample (producer) | メトリクスを計算するために保持されるサンプルの数。 | 2 | Integer |
partitioner (producer) | サブトピック間でメッセージを分割するパーティショナークラス。デフォルトのパーティショナーは、キーのハッシュに基づいています。 | org.apache.kafka.clients.producer.internals.DefaultPartitioner | String |
partitionKey (producer) | レコードの送信先のパーティション (パーティションが指定されていない場合は null)。このオプションが設定されている場合、ヘッダー KafkaConstants#PARTITION_KEY よりも優先されます。 | Integer | |
producerBatchSize (producer) | 複数のレコードが同じパーティションに送信されるときは常に、producer はレコードをまとめてより少ない要求にバッチ処理しようとします。これにより、クライアントとサーバーの両方でパフォーマンスが向上します。この設定では、デフォルトのバッチサイズをバイト単位で制御します。このサイズより大きいバッチレコードは試行されません。ブローカーに送信されるリクエストには、複数のバッチが含まれ、送信可能なデータを含む各パーティションに 1 つずつ含まれます。バッチサイズが小さいと、バッチ処理が一般的ではなくなり、スループット (バッチサイズゼロの場合、バッチ処理が完全に無効になります)。バッチサイズが非常に大きい場合は、追加のレコードを想定して、常に指定のバッチサイズのバッファーを割り当てるため、メモリーを多少無駄に使用する可能性があります。 | 16384 | Integer |
queueBufferingMaxMessages (producer) | プロデューサをブロックするか、データを削除する前に、非同期モードを使用するときにプロデューサのキューに入れることができる未送信メッセージの最大数。 | 10000 | Integer |
receiveBufferBytes (producer) | データの読み取り時に使用する TCP 受信バッファー (SO_RCVBUF) のサイズ。 | 65536 | Integer |
reconnectBackoffMs (producer) | 特定のホストへの再接続を試行するまでの待機時間。これにより、タイトなループでホストに繰り返し接続することを回避します。このバックオフは、consumer からブローカーに送信されるすべてのリクエストに適用されます。 | 50 | Integer |
recordMetadata (producer) | プロデューサが Kafka への送信から RecordMetadata の結果を保存する必要があるかどうか。結果は、RecordMetadata メタデータを含む List に保存されます。リストは、キー KafkaConstants#KAFKA_RECORDMETA を持つヘッダーに保存されます。 | true | boolean |
requestRequiredAcks (producer) | リクエストが完了したと見なす前に、producer がリーダーに受け取ったことを要求する確認の数。これは、送信されるレコードの耐久性を制御します。次の設定が一般的です: acks=0 ゼロに設定すると、プロデューサはサーバーからの確認をまったく待ちません。レコードは直ちにソケットバッファーに追加され、送信済みと見なされます。この場合、サーバーがレコードを受信したかどうかは保証されず、retries の設定は有効になりません (クライアントは通常、失敗を知ることができないからです)。各レコードに返されるオフセットは常に -1 に設定されます。acks=1 これは、リーダーがレコードをローカルログに書き込みますが、すべてのフォロワーからの完全な承認を待たずに応答することを意味します。この場合、レコードを承認した直後にリーダーが失敗したが、フォロワーがそれを複製する前に、レコードは失われます。acks=all これは、リーダーが同期レプリカの完全なセットがレコードを承認するまで待機することを意味します。これにより、少なくとも 1 つの In-Sync レプリカが動作している限り、レコードが失われないことが保証されます。これは利用可能な最強の保証になります。 列挙値:
| 1 | String |
requestTimeoutMs (producer) | クライアントにエラーを返す前に、ブローカーが request.required.acks 要件を満たすために待機する時間。 | 30000 | Integer |
retries (producer) | ゼロより大きい値を設定すると、クライアントは、一時的なエラーの可能性により送信に失敗したレコードを再送信します。この再試行は、クライアントがエラーを受信したときにレコードを再送した場合と同じであることに注意してください。再試行を許可すると、レコードの順序が変更される可能性があります。これは、2 つのレコードが 1 つのパーティションに送信され、最初のレコードが失敗して再試行され、2 番目のレコードが成功した場合、2 番目のレコードが最初に表示される可能性があるためです。 | 0 | Integer |
retryBackoffMs (producer) | 各再試行の前に、producer は関連するトピックのメタデータを更新して、新しいリーダーが選出されたかどうかを確認します。リーダーの選択には少し時間がかかるため、このプロパティーは producer がメタデータを更新するまで待機する時間を指定します。 | 100 | Integer |
sendBufferBytes (producer) | ソケット書き込みバッファーサイズ。 | 131072 | Integer |
valueSerializer (producer) | メッセージのシリアライザクラス。 | org.apache.kafka.common.serialization.StringSerializer | String |
workerPool (producer) | カスタムワーカープールを使用して、kafka サーバーが非同期のノンブロッキング処理を使用して KafkaProducer から送信されたメッセージを確認した後、Exchange のルーティングを続行します。このオプションを使用する場合は、スレッドプールのライフサイクルを処理して、不要になったときにプールをシャットダウンする必要があります。 | ExecutorService | |
workerPoolCoreSize (producer) | Kafka サーバーが非同期のノンブロッキング処理を使用して KafkaProducer から送信されたメッセージを確認した後、Exchange のルーティングを続行するためのワーカープールのコアスレッドの数。 | 10 | Integer |
workerPoolMaxSize (producer) | Kafka サーバーが、非同期のノンブロッキング処理を使用して KafkaProducer から送信されたメッセージを確認した後、Exchange のルーティングを続行するためのワーカープールのスレッドの最大数。 | 20 | Integer |
kafkaClientFactory (上級) | org.apache.kafka.clients.consumer.KafkaConsumer および org.apache.kafka.clients.producer.KafkaProducer インスタンスの作成に使用するファクトリー。これにより、バニラ Kafka クライアントを拡張するロジックを使用してインスタンスを作成するカスタムファクトリーを設定できます。 | KafkaClientFactory | |
synchronous (上級) | 同期処理を厳密に使用するかどうかを設定します。 | false | boolean |
schemaRegistryURL (confluent) | 使用する Confluent Platform スキーマレジストリーサーバーの URL。形式は、ホスト 1: ポート 1、ホスト 2: ポート 2 です。これは、Confluent Platform ドキュメントでは schema.registry.url として知られています。このオプションは、Confluent Platform (標準の Apache Kafka ではない) でのみ使用できます。 | String | |
interceptorClasses (モニタリング) | producer または consumer のインターセプターを設定します。Producer インターセプターは org.apache.kafka.clients.producer.ProducerInterceptor を実装するクラスでなければなりません Consumer インターセプターは org.apache.kafka.clients.consumer.ConsumerInterceptor を実装するクラスでなければなりません実行時のクラスキャスト例外。 | String | |
kerberosBeforeReloginMinTime (セキュリティー) | 更新試行間のログインスレッドのスリープ時間。 | 60000 | Integer |
kerberosInitCmd (security) | Kerberos kinit コマンドパス。デフォルトは/usr/bin/kinit です。 | /usr/bin/kinit | String |
kerberosPrincipalToLocalRules (セキュリティー) | プリンシパル名から短縮名 (通常はオペレーティングシステムのユーザー名) にマッピングするためのルールの一覧です。ルールは順番に評価され、プリンシパル名と一致する最初のルールは、これを短縮名にマップするために使用されます。一覧の後続のルールは無視されます。デフォルトでは、{username}/{hostname}{REALM} 形式のプリンシパル名は {username} にマッピングされます。形式の詳細については、セキュリティー認証と ACL のドキュメントを参照してください。複数の値はコンマで区切ることができます。 | DEFAULT | String |
kerberosRenewJitter (security) | 更新時間に追加されたランダムなジッターの割合。 | 0.05 | double |
kerberosRenewWindowFactor (security) | ログインスレッドは、最後の更新からチケットの有効期限までの指定された時間のウィンドウファクターに達するまでスリープし、その時点でチケットの更新を試みます。 | 0.8 | double |
saslJaasConfig (セキュリティー) | kafka sasl.jaas.config パラメーターを公開します。例: org.apache.kafka.common.security.plain.PlainLoginModule required username=USERNAME password=PASSWORD;. | String | |
saslKerberosServiceName (security) | Kafka が実行される Kerberos プリンシパル名。これは、Kafka の JAAS 設定または Kafka の設定で定義できます。 | String | |
saslMechanism (security) | 使用される Simple Authentication and Security Layer(SASL) メカニズム。有効な値については、を参照してください。 | GSSAPI | String |
securityProtocol (security) | ブローカーとの通信に使用されるプロトコル。SASL_PLAINTEXT、PLAINTEXT、および SSL がサポートされています。 | PLAINTEXT | String |
sslCipherSuites (security) | 暗号化スイートの一覧。これは、TLS または SSL ネットワークプロトコルを使用してネットワーク接続のセキュリティー設定をネゴシエートするために使用される、認証、暗号化、MAC、およびキー交換アルゴリズムの名前付きの組み合わせです。デフォルトでは、利用可能なすべての暗号スイートがサポートされています。 | String | |
sslContextParameters (security) | Camel SSLContextParameters オブジェクトを使用した SSL 設定。設定されている場合、他の SSL エンドポイントパラメーターの前に適用されます。注: Kafka はファイルの場所からのキーストアのロードのみをサポートしているため、場所の前に file: を KeyStoreParameters.resource オプションで付けます。 | SSLContextParameters | |
sslEnabledProtocols (security) | SSL 接続で有効なプロトコルの一覧。TLSv1.2、TLSv1.1、および TLSv1 はデフォルトで有効になっています。 | String | |
sslEndpointAlgorithm (security) | サーバー証明書を使用してサーバーのホスト名を検証するエンドポイント識別アルゴリズム。 | https | String |
sslKeymanagerAlgorithm (security) | SSL 接続のキーマネージャーファクトリーによって使用されるアルゴリズム。デフォルト値は、Java 仮想マシンに設定されたキーマネージャーファクトリーアルゴリズムです。 | SunX509 | String |
sslKeyPassword (security) | キーストアファイル内の秘密キーのパスワード。これはクライアントにとってオプションになります。 | String | |
sslKeystoreLocation (security) | キーストアファイルのロケーション。これはクライアントではオプションで、クライアントの双方向認証に使用できます。 | String | |
sslKeystorePassword (security) | キーストアファイルのストアパスワード。これはクライアントのオプションであり、ssl.keystore.location が設定されている場合にのみ必要です。 | String | |
sslKeystoreType (security) | キーストアファイルのファイル形式。これはクライアントにとってオプションになります。デフォルト値は JKS です。 | JKS | String |
sslProtocol (security) | SSLContext の生成に使用される SSL プロトコル。デフォルト設定は TLS で、ほとんどの場合はこれで問題ありません。最近の JVM で許可されている値は、TLS、TLSv1.1、および TLSv1.2 です。SSL、SSLv2、および SSLv3 は古い JVM でサポートされている可能性がありますが、セキュリティーの脆弱性が知られているため、それらの使用はお勧めできません。 | String | |
sslProvider (security) | SSL 接続に使用されるセキュリティープロバイダーの名前。デフォルト値は JVM のデフォルトのセキュリティープロバイダーです。 | String | |
sslTrustmanagerAlgorithm (security) | SSL 接続のトラストマネージャーファクトリーによって使用されるアルゴリズム。デフォルト値は、Java 仮想マシンに設定されたトラストマネージャーファクトリーアルゴリズムです。 | PKIX | String |
sslTruststoreLocation (security) | トラストストアファイルのロケーション。 | String | |
sslTruststorePassword (security) | トラストストアファイルのパスワード。 | String | |
sslTruststoreType (security) | トラストストアファイルのファイル形式。デフォルト値は JKS です。 | JKS | String |
Producer/Consumer 設定の詳細については、以下を参照してください。