181.2.2. クエリーパラメーター(93 パラメーター):


Name説明デフォルトType

ブローカー (共通)

使用する Kafka ブローカーの URL。形式は host1:port1,host2:port2 であり、一覧はブローカーのサブセットを参照するブローカーまたは VIP のサブセットになります。このオプションは、Kafka ドキュメントの bootstrap.servers と呼ばれます。

 

文字列

clientId (common)

クライアント ID は、呼び出しを追跡できるように各リクエストで送信されるユーザー指定の文字列です。要求を行うアプリケーションを論理的に識別する必要があります。

 

文字列

headerFilterStrategy (common)

カスタム HeaderFilterStrategy を使用して Camel メッセージに対してヘッダーをフィルターします。

 

HeaderFilterStrategy

reconnectBackoffMaxMs (common)

接続に繰り返し失敗したブローカーへの再接続時に待機する最大時間(ミリ秒単位)。これが指定されている場合、ホストごとのバックオフは、連続して接続に失敗するたびに、この最大値まで指数関数的に増加します。バックオフの増加を計算した後、コネクションストームを回避するために 20% のランダムなジッターが追加されます。

1000

整数

allowManualCommit (consumer)

KafkaManualCommit を使用して手動のコミットを許可するかどうか。このオプションを有効にすると、KafkaManualCommit のインスタンスは Exchange メッセージヘッダーに保存されます。これにより、エンドユーザーはこの API にアクセスし、Kafka コンシューマー経由で手動のオフセットコミットを実行できます。

false

boolean

autoCommitEnable (consumer)

true の場合、コンシューマーによってすでにフェッチされたメッセージのオフセットを ZooKeeper に定期的にコミットします。このコミットされたオフセットは、新規コンシューマーの開始位置としてプロセスが失敗した場合に使用されます。

true

ブール値

autoCommitIntervalMs (consumer)

コンシューマーオフセットが zookeeper にコミットされる頻度(ミリ秒単位)。

5000

整数

autoCommitOnStop (consumer)

ブローカーが最後に消費されたメッセージからのコミットを確実にするために、コンシューマーが停止したときに明示的な自動コミットを実行するかどうか。これには、autoCommitEnable オプションが有効になっている必要があります。使用できる値は sync、async、または none です。および sync はデフォルト値です。

sync

文字列

autoOffsetReset (consumer)

ZooKeeper に初期オフセットがない場合や、オフセットが範囲外の場合: 最小 : オフセットを最小のオフセットに自動リセットします。: 自動的にオフセットを最大のオフセットにリセットします: コンシューマーに例外をスローします。

latest

文字列

breakOnFirstError (consumer)

このオプションは、コンシューマーがエクスチェンジを処理し、失敗したときに発生する内容を制御します。オプションが false の場合、コンシューマーは次のメッセージを継続し、処理します。オプションが true の場合、コンシューマーは破損し、失敗の原因となったメッセージのオフセットにシークし、再度このメッセージを処理します。ただし、これにより、同じメッセージが毎回失敗すると、同じメッセージが無限に処理される可能性があります(例: poison メッセージ)。そのため、Camel のエラーハンドラーなどを使用してこれに対応することが推奨されます。

false

boolean

bridgeErrorHandler (consumer)

コンシューマーの Camel ルーティングエラーハンドラーへのブリッジを許可します。よって、コンシューマーが受信メッセージなどの取得を試行している間に発生した例外は、メッセージとして処理され、ルーティングエラーハンドラーによって処理されます。デフォルトでは、コンシューマーは org.apache.camel.spi.ExceptionHandler を使用して例外に対応し、WARN または ERROR レベルでログに記録され、無視されます。

false

boolean

checkCrcs (consumer)

消費されたレコードの CRC32 を自動的に確認します。これにより、メッセージのネットワーク上またはディスク上の破損が発生しなくなります。このチェックはオーバーヘッドを追加するため、極端なパフォーマンスを求める場合は無効になる可能性があります。

true

ブール値

consumerRequestTimeoutMs (consumer)

この設定は、クライアントの要求の応答を待つ最大時間を制御します。タイムアウトが経過する前に応答が受信されない場合、クライアントは必要に応じてリクエストを再送信します。または、再試行が使い切られるとリクエストが失敗します。

40000

整数

consumersCount (consumer)

kafka サーバーに接続するコンシューマーの数

1

int

consumerStreams (consumer)

コンシューマーの同時コンシューマーの数

10

int

fetchMaxBytes (consumer)

サーバーがフェッチリクエストに対して返す必要のあるデータの最大量。これは、フェッチの最初の空でないパーティションの最初のメッセージがこの値よりも大きい場合に、メッセージを返してコンシューマーが進行できることを確認します。ブローカーによって許可される最大メッセージサイズは、message.max.bytes(ブローカー設定)または max.message.bytes(トピック設定)で定義されます。コンシューマーは複数のフェッチを並行して実行することに注意してください。

52428800

整数

fetchMinBytes (consumer)

サーバーがフェッチ要求に対して返す必要のあるデータの最小量。利用可能なデータが不十分な場合、リクエストは、リクエストに応答する前に、十分なデータが蓄積されるのを待ちます。

1

整数

fetchWaitMaxMs (consumer)

すぐに fetch.min.bytes を満たすのに十分なデータがない場合にサーバーがフェッチリクエストに応答するまでにブロックする最大時間。

500

整数

groupId (consumer)

このコンシューマーが属するコンシューマープロセスのグループを一意に識別する文字列。同じグループ ID を複数設定するプロセスは、すべて同じコンシューマーグループの一部であることを意味します。このオプションはコンシューマーに必要です。

 

文字列

heartbeatIntervalMs (consumer)

Kafka のグループ管理機能を使用する場合の、ハートビートからコンシューマーコーディネーター間の想定される時間。ハートビートは、コンシューマーのセッションがアクティブな状態を維持し、新しいコンシューマーがグループに参加したり離脱したりする際のリバランスを促進するために使用されます。値は session.timeout.ms よりも低く設定する必要がありますが、通常はその値の 1/3 以下に設定する必要があります。さらに低く調整することで、通常のリバランスの予想時間を制御することもできます。

3000

整数

kafkaHeaderDeserializer (consumer)

kafka ヘッダーの値を camel ヘッダー値にデシリアライズするカスタム KafkaHeaderDeserializer を設定します。

 

KafkaHeaderDeserializer

keyDeserializer (consumer)

Deserializer インターフェースを実装するキーのデシリアライザークラス。

org.apache.kafka.common.serialization.StringDeserializer

文字列

maxPartitionFetchBytes (consumer)

サーバーが返すパーティションごとのデータの最大量。リクエストに使用される最大メモリーの合計は、パーティション max.partition.fetch.bytes になります。このサイズは、サーバーが許可するメッセージの最大サイズが大きいか、コンシューマーよりも大きなメッセージを送信することができます。この場合、コンシューマーはあるパーティションで大きなメッセージの取得を試行しなくなります。

1048576

整数

maxPollIntervalMs (consumer)

コンシューマーグループ管理を使用する場合の poll() の呼び出し間の最大遅延。これにより、コンシューマーがさらにレコードをフェッチする前にアイドル状態になることができる時間に上限が設定されます。このタイムアウトの期限が切れる前に poll() が呼び出されない場合、コンシューマーは失敗とみなされ、グループはパーティションを別のメンバーに再割り当てするためにリバランスします。

 

Long

maxPollRecords (consumer)

poll()への単一呼び出しで返される最大レコード数

500

整数

offsetRepository (consumer)

トピックの各パーティションのオフセットをローカルに保存するために使用するオフセットリポジトリー。定義すると、オートコミットが無効になります。

 

String>

partitionAssignor (consumer)

グループ管理が使用される場合に、クライアントがコンシューマーインスタンス間でパーティションの所有権を分散するために使用するパーティション割り当てストラテジーのクラス名。

org.apache.kafka.clients.consumer.RangeAssignor

文字列

pollTimeoutMs (consumer)

KafkaConsumer のポーリング時に使用されるタイムアウト。

5000

Long

seekTo (consumer)

起動時に KafkaConsumer が最初から読み取るか、または最後に読み込んだ場合を設定します。end: read from end は、前述のプロパティー seekToBeginning を置き換えます。

 

文字列

sessionTimeoutMs (consumer)

Kafka のグループ管理機能の使用時に障害の検出に使用されるタイムアウト。

10000

整数

topicIsPattern (consumer)

トピックがパターン(正規表現)であるかどうか。これは、パターンに一致するトピックの動的数をサブスクライブするために使用できます。

false

boolean

valueDeserializer (consumer)

Deserializer インターフェースを実装する値のデシリアライザークラス。

org.apache.kafka.common.serialization.StringDeserializer

文字列

exceptionHandler (consumer)

コンシューマーによるカスタム ExceptionHandler の使用を許可します。bridgeErrorHandler オプションが有効な場合は、このオプションは使用されていないことに注意してください。デフォルトでは、コンシューマーは例外に対応し、WARN または ERROR レベルでログに記録され、無視されます。

 

ExceptionHandler

exchangePattern (consumer)

コンシューマーがエクスチェンジを作成する際に交換パターンを設定します。

 

ExchangePattern

bridgeEndpoint (producer)

オプションが true の場合、KafkaProducer はインバウンドメッセージの KafkaConstants.TOPIC ヘッダー設定を無視します。

false

boolean

bufferMemorySize (producer)

プロデューサーが、サーバーへの送信を待機しているレコードをバッファリングするために使用できるメモリーの合計バイト数。レコードの送信速度がサーバーへの配信よりも高速である場合、プロデューサーは block.on.buffer.full で指定された設定に基づいて例外をブロックまたはスローします。この設定は、プロデューサーが使用するメモリーの合計にほぼ対応しますが、プロデューサーが使用するメモリーがすべてバッファーに使用されるわけではないので、ハードバインドではありません。一部の追加メモリーは、圧縮(圧縮が有効な場合)やインフライトリクエストの維持に使用されます。

33554432

整数

circularTopicDetection (producer)

オプションが true の場合、メッセージが kafka コンシューマーから元のメッセージである場合、KafkaProducer はメッセージが同じトピックに返信しようとするかどうかを検出します。KafkaConstants.TOPIC ヘッダーが元の kafka コンシューマートピックと同じ場合、ヘッダー設定は無視され、プロデューサーエンドポイントのトピックが使用されます。言い換えると、同じメッセージが発信元の場所に返信されることを防ぐことができます。このオプションは、bridgeEndpoint オプションが true に設定されている場合は使用されません。

true

boolean

compressionCodec (producer)

このパラメーターを使用すると、このプロデューサーによって生成されたすべてのデータに圧縮コーデックを指定できます。有効な値は none、gzip、および snappy です。

none

文字列

connectionMaxIdleMs (producer)

この設定で指定された期間(ミリ秒単位)の後にアイドル状態の接続を閉じます。

540000

整数

enableIdempotence (producer)

'true' に設定された場合、プロデューサーは各メッセージのコピーが 1 つだけストリームに書き込まれるようにします。「false」の場合、プロデューサーの再試行により、ストリームに再試行されたメッセージの重複が書き込まれる可能性があります。true に設定すると、max.in.flight.requests.per.connection を 1 に設定する必要があり、再試行はゼロにすることはできず、追加の認証は all に設定する必要があります。

false

boolean

kafkaHeaderSerializer (producer)

camel ヘッダー値を kafka ヘッダー値にシリアライズするカスタム KafkaHeaderDeserializer を設定します。

 

KafkaHeaderSerializer

キー (プロデューサー)

レコードキー(またはキーが指定されていない場合は null)このオプションを設定すると、ヘッダーリンク KafkaConstantsKEY よりも優先されます。

 

文字列

keySerializerClass (producer)

キーのシリアライザークラス(指定がない場合はメッセージと同じものになります)。

org.apache.kafka.common.serialization.StringSerializer

文字列

lingerMs (producer)

プロデューサーは、リクエストの送信の間に到着したレコードを 1 つのバッチリクエストにグループ化します。通常、これは、レコードが送信できるよりも早く到着した場合に、負荷がかかった状態でのみ発生します。ただし、状況によっては、中程度の負荷がかかっている場合でも、クライアントがリクエストの数を減らしたい場合があります。この設定は、プロデューサーを即座に送信するのではなく、人為的な遅延を追加することで実現します。つまり、プロデューサーはレコードをすぐに送信するのではなく、他のレコードが送信されるまで指定の遅延まで待機し、送信をバッチでバッチ処理できるようにします。これは、TCP の Nagle アルゴリズムに類似するものと考えることができます。この設定は、バッチ処理の遅延の上限を与えます。パーティションのレコードの batch.size は、重要なレコードを取得すると、この設定に関係なくすぐに送信されますが、このパーティションに蓄積されたバイト数がこれより少ない場合は、指定された時間の間、より多くのレコードが表示されるのを「linger」とします。デフォルトは 0(つまり遅延なし)に設定されます。たとえば、linger.ms=5 を設定すると、送信されるリクエストの数が減りますが、負荷の異常で送信されるレコードに最大 5 ミリ秒のレイテンシーが追加されます。

0

整数

maxBlockMs (producer)

この設定は、kafka に送信する期間を制御します。これらのメソッドは、複数の理由でブロックできます。(例: buffer full、メタデータは利用できません)。この設定により、メタデータの取得に費やされた合計時間、キーと値のシリアライズ、send()の実行時にバッファーメモリーのパーティションおよび割り当てに最大制限が適用されます。partitionsFor()の場合、この設定によりメタデータの待機中に最大時間のしきい値が適用されます。

60000

整数

maxInFlightRequest (producer)

ブロックする前にクライアントが 1 つの接続で送信する確認されていないリクエストの最大数。この設定が 1 を超える値に設定され、送信に失敗した場合は、再試行によりメッセージの順序が及ぶ可能性があります(再試行が有効な場合など)。

5

整数

maxRequestSize (producer)

リクエストの最大サイズ。また、これは最大レコードサイズの上限でもあります。サーバーにはレコードサイズに固有の上限があり、これとは異なる可能性があることに注意してください。この設定により、プロデューサーが 1 回のリクエストで送信するレコードバッチの数が制限され、大量のリクエストが送信されないようになります。

1048576

整数

metadataMaxAgeMs (producer)

新しいブローカーまたはパーティションをプロアクティブに検出するためのパーティションリーダーシップの変更がない場合でも、メタデータの更新を強制するまでの期間 (ミリ秒単位)。

300000

整数

metricReporters (producer)

メトリクスレポーターとして使用するクラスの一覧。MetricReporter インターフェースを実装すると、新規メトリクスの作成が通知されるクラスのプラグが可能になります。JmxReporter は、JMX 統計を登録するために常に含まれます。

 

文字列

metricsSampleWindowMs (producer)

メトリクスを計算するために保持されるサンプルの数。

30000

整数

noOfMetricsSample (producer)

メトリクスを計算するために保持されるサンプルの数。

2

整数

partitioner (プロデューサー)

サブトピック間でメッセージを分割するためのパーティションクラス。デフォルトのパーティションャーは、キーのハッシュに基づいています。

org.apache.kafka.clients.producer.internals.DefaultPartitioner

文字列

partitionKey (producer)

レコードの送信先となるパーティション(パーティションの指定がない場合は null)。このオプションを設定すると、ヘッダーリンク KafkaConstantsPARTITION_KEY よりも優先されます。

 

整数

producerBatchSize (producer)

複数のレコードが同じパーティションに送信されるときは常に、プロデューサーはレコードをまとめてより少ない要求にバッチ処理しようとします。これにより、クライアントとサーバーの両方でパフォーマンスが向上します。この設定では、デフォルトのバッチサイズをバイト単位で制御します。ブローカーに送信されるリクエストには複数のバッチが含まれ、送信可能なデータがあるパーティションごとにバッチ処理は試行されません。バッチサイズが小さいと、バッチ処理が少なくなることがあります(バッチサイズはゼロの場合、バッチサイズは完全に無効化されます)。バッチサイズが非常に大きい場合は、追加のレコードを想定して、常に指定のバッチサイズのバッファーを割り当てるため、メモリーを多少無駄に使用する可能性があります。

16384

整数

queueBufferingMaxMessages (producer)

プロデューサーがブロックされるか、またはデータを取り除く前に、非同期モードの使用時にプロデューサーをキューに入れることができる未送信メッセージの最大数。

10000

整数

receiveBufferBytes (producer)

データの読み取り時に使用する TCP 受信バッファー(SO_RCVBUF)のサイズ。

65536

整数

reconnectBackoffMs (producer)

指定されたホストへの再接続を試みるまで待機する時間。これにより、タイトなループでホストに繰り返し接続することを回避します。このバックオフは、コンシューマーによってブローカーに送信されるすべてのリクエストに適用されます。

50

整数

recordMetadata (producer)

プロデューサーが RecordMetadata 結果を Kafka に送信から保存すべきかどうか。結果は、recordMetadata メタデータを含む List に保存されます。このリストは、KafkaConstantsKAFKA_RECORDMETA キーのあるヘッダーに保存されます。

true

boolean

requestRequiredAcks (producer)

リクエストが完了したと見なす前に、プロデューサーがリーダーに受け取ったことを要求する確認の数。これは、送信されるレコードの耐久性を制御します。次の設定は共通です: acks=0 ゼロに設定すると、プロデューサーはサーバーからの確認応答を一切待ちません。レコードは直ちにソケットバッファーに追加され、送信済みと見なされます。この場合、サーバーがレコードを受信したことを保証できず、再試行設定は有効になりません(クライアントは通常失敗を認識しないため)。各レコードに返されるオフセットは、常に -1 acks=1 に設定されます。これは、リーダーがレコードをローカルログに書き込みますが、すべてのフォロワーからの完全な確認応答を待たずに応答します。この場合、レコードの承認後すぐにリーダーが失敗するはずですが、フォロワーが複製される前にレコードが失われます。acks=all これは、リーダーが同期レプリカの完全なセットがレコードを確認するのを待ちます。これにより、少なくとも 1 つの In-Sync レプリカが動作している限り、レコードが失われないことが保証されます。これは利用可能な最強の保証になります。

1

文字列

requestTimeoutMs (producer)

エラーをクライアントに送信する前にブローカーが request.required.acks 要件を満たすまで待機する時間。

305000

整数

再試行 (プロデューサー)

ゼロより大きい値を設定すると、クライアントは、一時的なエラーの可能性により送信に失敗したレコードを再送信します。この再試行は、クライアントがエラーを受信したときにレコードを再送した場合と同じであることに注意してください。再試行を許可すると、2 つのレコードが 1 つのパーティションに送信され、最初のレコードが失敗して再試行されますが、2 番目のレコードが最初に表示される可能性があるため、レコードの順序が変わる可能性があります。

0

整数

retryBackoffMs (producer)

各再試行前に、プロデューサーは該当するトピックのメタデータを更新し、新しいリーダーが選出されたかどうかを確認します。リーダーの選択には少し時間がかかるため、このプロパティーはメタデータを更新する前にプロデューサーが待機する時間を指定します。

100

整数

sendBufferBytes (producer)

ソケット書き込みバッファーサイズ

131072

整数

serializerClass (producer)

メッセージのシリアライザークラス。

org.apache.kafka.common.serialization.StringSerializer

文字列

workerPool (producer)

Kafka サーバーが非同期非ブロッキング処理を使用して KafkaProducer から送信されたメッセージを確認した後、カスタムワーカープールを使用してルーティングエクスチェンジを続行します。

 

ExecutorService

workerPoolCoreSize (producer)

Kafka サーバーが非同期非ブロッキング処理を使用して KafkaProducer から送信されたメッセージを確認した後、ルーティングエクスチェンジを継続するワーカープールのコアスレッドの数。

10

整数

workerPoolMaxSize (producer)

Kafka サーバーが非同期非ブロッキング処理を使用して KafkaProducer から送信されたメッセージを確認した後、ルーティングエクスチェンジを続行するためのワーカープールの最大スレッド数。

20

整数

同期 (詳細)

同期処理を厳密に使用するか、Camel が非同期処理を使用できるようにするかを設定します(サポートされている場合)。

false

boolean

interceptorClasses (monitoring)

プロデューサーまたはコンシューマーのインターセプターを設定します。プロデューサーインターセプターは、org.apache.kafka.clients.producer.ProducerInterceptor Consumer インターセプターを実装するクラスである必要があります。コンシューマーに Producer インターセプターを使用している場合は、実行時にクラスキャスト例外をスローすることに注意してください。

 

文字列

kerberosBeforeReloginMin Time (security)

更新試行間のログインスレッドのスリープ時間。

60000

整数

kerberosInitCmd (security)

Kerberos kinit コマンドパス。デフォルトは /usr/bin/kinit です。

/usr/bin/kinit

文字列

kerberosPrincipalToLocal Rules (security)

プリンシパル名から短縮名(通常はオペレーティングシステムのユーザー名)にマッピングするためのルールの一覧です。ルールは順番に評価され、プリンシパル名と一致する最初のルールは、これを短縮名にマップするために使用されます。一覧の後続のルールは無視されます。デフォルトでは、username/hostnameREALM 形式のプリンシパル名は username にマッピングされます。形式の詳細は、「セキュリティー承認および acl」を参照してください。複数の値はコンマで区切ることができます。

DEFAULT

文字列

kerberosRenewJitter (security)

更新時間に追加されたランダムなジッターの割合。

0.05

double

kerberosRenewWindowFactor (security)

ログインスレッドは、最後の更新からチケットの有効期限までの指定された時間のウィンドウファクターに達するまでスリープし、その時点でチケットの更新を試みます。

0.8

double

saslJaasConfig (security)

expose the kafka sasl.jaas.config parameter Example: org.apache.kafka.common.security.plain.PlainLoginModule required username=USERNAME password=PASSWORD;

 

文字列

saslKerberosServiceName (security)

Kafka が実行される Kerberos プリンシパル名。これは、Kafka の JAAS 設定または Kafka の設定で定義できます。

 

文字列

saslMechanism (security)

使用される Simple Authentication and Security Layer(SASL)メカニズム。有効な値は http://www.iana.org/assignments/sasl-mechanisms/sasl-mechanisms.xhtmlを参照してください。

GSSAPI

文字列

securityProtocol (security)

ブローカーとの通信に使用されるプロトコル。現在、PLAINTEXT および SSL のみがサポートされます。

PLAINTEXT

文字列

sslCipherSuites (security)

暗号化スイートの一覧。これは、TLS または SSL ネットワークプロトコルを使用してネットワーク接続のセキュリティー設定をネゴシエートするために使用される認証、暗号化、MAC、および鍵交換アルゴリズムの名前付きの組み合わせです。デフォルトで利用可能なすべての暗号スイートがサポートされます。

 

文字列

sslContextParameters (security)

Camel SSLContextParameters オブジェクトを使用した SSL 設定。設定されている場合は、他の SSL エンドポイントパラメーターの前に適用されます。

 

SSLContextParameters

sslEnabledProtocols (security)

SSL 接続で有効なプロトコルの一覧。TLSv1.2、TLSv1.1、および TLSv1 はデフォルトで有効になります。

TLSv1.2,TLSv1.1,TLSv1

文字列

sslEndpointAlgorithm (security)

サーバー証明書を使用してサーバーのホスト名を検証するエンドポイント識別アルゴリズム。

 

文字列

sslKeymanagerAlgorithm (security)

SSL 接続のキーマネージャーファクトリーによって使用されるアルゴリズム。デフォルト値は、Java 仮想マシンに設定されたキーマネージャーファクトリーアルゴリズムです。

SunX509

文字列

sslKeyPassword (security)

キーストアファイルの秘密鍵のパスワード。これはクライアントにとってオプションになります。

 

文字列

sslKeystoreLocation (security)

キーストアファイルの場所。これはクライアントではオプションで、クライアントの双方向認証に使用できます。

 

文字列

sslKeystorePassword (security)

キーストアファイルのストアパスワード。これはクライアントに対してオプションであり、ssl.keystore.location が設定されている場合のみ必要です。

 

文字列

sslKeystoreType (security)

キーストアファイルのファイル形式。これはクライアントにとってオプションになります。デフォルト値は JKS です。

JKS

文字列

sslProtocol (security)

SSLContext の生成に使用される SSL プロトコル。デフォルトの設定は TLS で、ほとんどの場合で問題ありません。最新の JVM で許可される値は TLS、TLSv1.1、および TLSv1.2 です。SSL、SSLv2、および SSLv3 は古い JVM でサポートされる可能性がありますが、既知のセキュリティー脆弱性により使用は推奨されません。

TLS

文字列

sslProvider (security)

SSL 接続に使用されるセキュリティープロバイダーの名前。デフォルト値は JVM のデフォルトのセキュリティープロバイダーです。

 

文字列

sslTrustmanagerAlgorithm (security)

SSL 接続のトラストマネージャーファクトリーによって使用されるアルゴリズム。デフォルト値は、Java 仮想マシンに設定されたトラストマネージャーファクトリーアルゴリズムです。

PKIX

文字列

sslTruststoreLocation (security)

トラストストアファイルの場所。

 

文字列

sslTruststorePassword (security)

トラストストアファイルのパスワード。

 

文字列

sslTruststoreType (security)

トラストストアファイルのファイル形式。デフォルト値は JKS です。

JKS

文字列

プロデューサー/コンシューマー設定の詳細は、以下を参照してください。

http://kafka.apache.org/documentation.html#newconsumerconfigs http://kafka.apache.org/documentation.html#producerconfigs

トップに戻る
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2025 Red Hat, Inc.