付録F Kafka Connect 設定パラメーター


config.storage.topic

型: 文字列
インポート: high

コネクター設定が保存される Kafka トピックの名前。

group.id

型: 文字列
インポート: high

このワーカーが属する Connect クラスターグループを識別する一意の文字列。

key.converter

型: クラス
インポート: high

Kafka Connect 形式と Kafka に書き込まれるシリアライズされた形式間の変換に使用されるコンバータークラス。これは、Kafka から書き込まれたメッセージのキーの形式を制御します。これは、コネクターがシリアル化形式と操作できるコネクターから独立しているためです。一般的なフォーマットの例には、JSON および Avro が含まれます。

offset.storage.topic

型: 文字列
インポート: high

コネクターオフセットが保存される Kafka トピックの名前。

status.storage.topic

型: 文字列
インポート: high

コネクターおよびタスクステータスが保存される Kafka トピックの名前。

value.converter

型: クラス
インポート: high

Kafka Connect 形式と Kafka に書き込まれるシリアライズされた形式間の変換に使用されるコンバータークラス。これは、Kafka から書き込まれたメッセージの値の形式を制御します。これは、コネクターがシリアル化形式と操作できるコネクターから独立しているためです。一般的なフォーマットの例には、JSON および Avro が含まれます。

bootstrap.servers

type: list
デフォルト: localhost:9092
Importance: high

Kafka クラスターへの最初の接続を確立するために使用するホストとポートのペアの一覧。クライアントは、ブートストラップ用に指定されたすべてのサーバーに関係なく、サーバーの完全なセットを検出するために使用される初期ホストにのみ影響します。このリストは host1:port1,host2:port2,…​ の形式にする必要があります。これらのサーバーは、クラスターの完全なメンバーシップを検出するために最初の接続に使用されるため(動的に変更される可能性がある)、この一覧にはサーバーの完全セットを含める必要はありません(サーバーがダウンした場合など)。

heartbeat.interval.ms

型: int
デフォルト: 3000(3 秒)
のインポート: high

Kafka のグループ管理機能の使用時に、ハートビートからグループコーディネーターにハートビートの間隔が想定される時間。ハートビートは、ワーカーのセッションがアクティブな状態を維持し、新規メンバーがグループに参加したり離れたりする際にリバランスを容易にするために使用されます。値は session.timeout.ms よりも低い値を設定する必要がありますが、通常はその値の 1/3 よりも高い値を設定する必要があります。通常のリバランスの予想される時間を制御するように調整することもできます。

rebalance.timeout.ms

型: int
デフォルト: 60000(1 分)
Importance: high

各ワーカーがグループに参加する最大許容期間を 1 度、リバランスを開始します。これは基本的に、保留中のデータをフラッシュしてオフセットをコミットするために必要な時間の制限です。タイムアウトを超えるとワーカーがグループから削除され、オフセットのコミットに失敗します。

session.timeout.ms

型: int
デフォルト: 10000(10 秒)
のインポート: high

ワーカーの失敗の検出に使用されるタイムアウト。ワーカーは定期的なハートビートを送信し、その liveness をブローカーに示します。このセッションタイムアウトの期限が切れる前にブローカーによってハートビートが受信されなかった場合、ブローカーはグループからワーカーを削除し、リバランスを開始します。この値は、group.min.session.timeout.ms および group.max.session.timeout.ms によってブローカー設定で設定されるため、許容範囲である必要があることに注意してください。

ssl.key.password

タイプ: password
デフォルト: null
インポート: high

キーストアファイルまたは 'ssl.keystore.key' に指定された PEM キーのパスワード。これは、双方向認証が設定されている場合のみクライアントに必要です。

ssl.keystore.certificate.chain

タイプ: password
デフォルト: null
インポート: high

'ssl.keystore.type' により指定された形式の証明書チェーン。デフォルトの SSL エンジンファクトリーは、X.509 証明書の一覧で PEM 形式のみをサポートします。

ssl.keystore.key

タイプ: password
デフォルト: null
インポート: high

'ssl.keystore.type' により指定された形式の秘密鍵。デフォルトの SSL エンジンファクトリーは、PKCS#8 鍵を持つ PEM 形式のみをサポートします。鍵を暗号化する場合は、'ssl.key.password' を使用して鍵のパスワードを指定する必要があります。

ssl.keystore.location

type: string
デフォルト: null
Importance: high

キーストアファイルの場所。これはクライアント用にオプションであり、クライアントの双方向認証に使用できます。

ssl.keystore.password

タイプ: password
デフォルト: null
インポート: high

キーストアファイルのストアパスワード。これはクライアントでオプションであり、'ssl.keystore.location' が設定されている場合にのみ必要です。キーストアパスワードは PEM 形式ではサポートされません。

ssl.truststore.certificates

タイプ: password
デフォルト: null
インポート: high

'ssl.truststore.type' によって指定された形式の信頼済み証明書。デフォルトの SSL エンジンファクトリーは、X.509 証明書で PEM 形式のみをサポートします。

ssl.truststore.location

type: string
デフォルト: null
Importance: high

トラストストアファイルの場所。

ssl.truststore.password

タイプ: password
デフォルト: null
インポート: high

トラストストアファイルのパスワード。パスワードが設定されていないと、設定したトラストストアファイルが使用されますが、整合性チェックは無効になります。トラストストアパスワードは PEM 形式ではサポートされません。

client.dns.lookup

type: string
デフォルト: use_all_dns_ips
有効な値: [default, use_all_dns_ips, resolve_canonical_bootstrap_servers_only]
Importance: medium

クライアントが DNS ルックアップをどのように使用するかを制御します。use_all_dns_ips に設定すると、正常な接続が確立されるまで、返された各 IP アドレスに接続します。切断後、次の IP が使用されます。すべての IP を一度使用した後、クライアントはホスト名から IP を再度解決します(JVM と OS キャッシュ DNS 名の検索の両方)。resolve_canonical_bootstrap_servers_only に設定すると、各ブートストラップアドレスを正規名のリストに解決します。ブートストラップフェーズ後、これは use_all_dns_ips と同じように動作します。default (非推奨)に設定すると、ルックアップが複数の IP アドレスを返しても、ルックアップが返した最初の IP アドレスへの接続を試行します。

connections.max.idle.ms

タイプ: long
デフォルト: 540000(9 分)
Importance: medium

この設定によって指定されるミリ秒数の後にアイドル状態の接続を閉じます。

connector.client.config.override.policy

型: 文字列
デフォルト: なし
インポート: medium

ConnectorClientConfigOverridePolicy の実装のクラス名またはエイリアス。コネクターによって上書きできるクライアント設定を定義します。デフォルトの実装は None です。フレームワークの他のポリシーには All および Principal が含まれます。

receive.buffer.bytes

型: int
デフォルト: 32768(32 kibibytes)
有効な値 [ 0,…​]
Importance: medium

データの読み取り時に使用する TCP 受信バッファー(SO_RCVBUF)のサイズ。値が -1 の場合、OS のデフォルトが使用されます。

request.timeout.ms

型: int
デフォルト: 40000(40 秒)
有効な値: [0,…​]
Importance: medium

設定は、クライアントがリクエストの応答を待つ最大時間を制御します。タイムアウトが経過する前にレスポンスが受信されなかった場合、再試行が行われるとクライアントはリクエストを再送信します。

sasl.client.callback.handler.class

型: クラス
デフォルト: null
Importance: medium

AuthenticateCallbackHandler インターフェースを実装する SASL クライアントコールバックハンドラークラスの完全修飾名。

sasl.jaas.config

タイプ: password
デフォルト: null
のインポート: medium

JAAS 設定ファイルで使用される形式で SASL 接続の JAAS ログインコンテキストパラメーター。JAAS 設定ファイルの形式が ここ に記載されています。値の形式は以下のとおりです。loginModuleClass controlFlag (optionName=optionValue)*;.ブローカーの場合、小文字でリスナーのプレフィックスおよび SASL メカニズム名を付ける必要があります。例: listener.name.sasl_ssl.scram-sha-256.sasl.jaas.config=com.example.ScramLoginModule required;

sasl.kerberos.service.name

type: string
デフォルト: null
Importance: medium

Kafka が実行される Kerberos プリンシパル名。これは、Kafka の JAAS 設定または Kafka の設定で定義できます。

sasl.login.callback.handler.class

型: クラス
デフォルト: null
Importance: medium

AuthenticateCallbackHandler インターフェースを実装する SASL ログインコールバックハンドラークラスの完全修飾名。ブローカーの場合、ログインコールバックハンドラーの設定には、小文字でリスナーのプレフィックスおよび SASL メカニズム名を付ける必要があります。たとえば、listener.name.sasl_ssl.scram-sha-256.sasl.login.callback.handler.class=com.example.CustomScramLoginCallbackHandler です。

sasl.login.class

型: クラス
デフォルト: null
Importance: medium

ログインインターフェースを実装するクラスの完全修飾名。ブローカーの場合、ログイン設定の前にリスナー接頭辞と SASL メカニズム名を付ける必要があります。For example, listener.name.sasl_ssl.scram-sha-256.sasl.login.class=com.example.CustomScramLogin.

sasl.mechanism

type: string
デフォルト: GSSAPI
Importance: medium

クライアント接続に使用される SASL メカニズム。これは、セキュリティープロバイダーを利用できるメカニズムがある場合があります。GSSAPI はデフォルトのメカニズムです。

security.protocol

type: string
デフォルト: PLAINTEXT
Importance: medium

ブローカーと通信するために使用されるプロトコル。有効な値は PLAINTEXT、SSL、SASL_PLAINTEXT、SASL_SSL です。

send.buffer.bytes

型: int
デフォルト: 131072(128 kibibytes)
有効な値 [ 0,…​]
Importance: medium

データ送信時に使用する TCP 送信バッファー(SO_SNDBUF)のサイズ。値が -1 の場合、OS のデフォルトが使用されます。

ssl.enabled.protocols

type: list
デフォルト: TLSv1.2,TLSv1.3
Importance: medium

SSL 接続に対して有効なプロトコル一覧。Java 11 以降、TLSv1.2' の場合、デフォルトは 'TLSv1.2,TLSv1.3' です。Java 11 のデフォルト値は、クライアントとサーバーは、TLSv1.2 へのサポートとフォールバックの両方をサポートする場合は、TLSv1.3 が優先されます(両方が TLSv1.2 をサポートしていることを前提とします)。ほとんどの場合、このデフォルト設定は問題ありません。ssl.protocol の設定に関するドキュメントも参照してください。

ssl.keystore.type

型: string
デフォルト: JKS
Importance: medium

キーストアファイルのファイル形式。これはクライアントでオプションです。

ssl.protocol

型: 文字列
デフォルト: TLSv1.3
のインポート: medium

SSLContext の生成に使用される SSL プロトコル。Java 11 以降、'TLSv1.2' の場合、デフォルトは 'TLSv1.3' です。この値は、ほとんどのユースケースで問題ありません。最新の JVM の許可される値は 'TLSv1.2' および 'TLSv1.3' です。'TLS'、'TLSv1.1'、'SSL'、'SSLv2'、および 'SSLv3' は古い JVM でサポートされていますが、既知のセキュリティー脆弱性により使用は推奨されません。この設定と 'ssl.enabled.protocols' のデフォルト値で、サーバーが 'TLSv1.3' に対応していない場合は、クライアントは 'TLSv1.2' にダウングレードします。この設定を 'TLSv1.2' に設定すると、ssl.enabled.protocols の値のいずれかであった場合でも、クライアントは 'TLSv1.3' を使用しません。また、サーバーは 'TLSv1.3' のみをサポートします。

ssl.provider

type: string
デフォルト: null
Importance: medium

SSL 接続に使用されるセキュリティープロバイダーの名前。デフォルト値は JVM のデフォルトセキュリティープロバイダーです。

ssl.truststore.type

型: string
デフォルト: JKS
Importance: medium

トラストストアファイルのファイル形式。

worker.sync.timeout.ms

型: int
デフォルト: 3000(3 秒)
のインポート: medium

ワーカーが他のワーカーと同期し、再同期する必要がある場合、グループの追加、参加前のバックオフ期間を待機した後に、この待機時間待機します。

worker.unsync.backoff.ms

型: int
デフォルト: 300000(5 分)
Importance: medium

ワーカーが他のワーカーと同期し、worker.sync.timeout.ms 内でキャッチできない場合、再参加する前にこの期間に Connect クラスターのままにします。

access.control.allow.methods

型: 文字列
デフォルト:
""
Importance: low

Access-Control-Allow-Methods ヘッダーを設定して、クロスオリジン要求でサポートされるメソッドを設定します。Access-Control-Allow-Methods ヘッダーのデフォルト値により、GET、POST、および HEAD のクロスオリジン要求が許可されます。

access.control.allow.origin

型: 文字列
デフォルト:
""
Importance: low

Access-Control-Allow-Origin ヘッダーを REST API 要求用に設定するための値。クロスオリジンアクセスを有効にするには、API へのアクセスが許可されるアプリケーションのドメインに設定する必要があります。あるいは、'*' を設定してすべてのドメインからのアクセスを許可する必要があります。デフォルト値は REST API のドメインからのアクセスのみを許可します。

admin.listeners

type: list
Default: null
Valid Values: org.apache.kafka.connect.runtime.WorkerConfig$AdminListenersValidator@6e3c1e69
Importance: low

Admin REST API がリッスンするカンマ区切りの URI の一覧。サポートされるプロトコルは HTTP および HTTPS です。空の文字列または空の文字列を使用すると、この機能が無効になります。デフォルトの動作では、通常のリスナーを使用します(listeners' プロパティーによって指定されます)。

client.id

型: 文字列
デフォルト:
""
Importance: low

要求の実行時にサーバーに渡す id 文字列。これの目的は、サーバー側の要求ロギングに論理アプリケーション名を含めることで、ip/port 以外の要求のソースを追跡できます。

config.providers

タイプ: list
デフォルト: ""
Importance: low

指定された順序でロードされ、使用される ConfigProvider クラスのコンマ区切りリスト。インターフェース ConfigProvider を実装すると、外部化シークレットなど、コネクター設定の変数参照を置き換えることができます。

config.storage.replication.factor

タイプ: 短い
デフォルト: 3
有効な値: Kafka クラスターのブローカー数よりも大きいでない数字、または -1(ブローカーのデフォルト
インポート): low

設定ストレージトピックの作成時に使用されるレプリケーション係数。

connect.protocol

型: 文字列
デフォルト:
sessioned
有効な値: [eager, compatible, sessioned]
Importance: low

Kafka Connect プロトコルの互換モード。

header.converter

type: class
デフォルト: org.apache.kafka.connect.storage.SimpleHeaderConverter
Importance: low

Kafka Connect 形式と Kafka に書き込まれたシリアライズ形式間の変換に使用される HeaderConverter クラス。これにより、Kafka から書き込まれたメッセージのヘッダー値の形式を制御します。これは、コネクターがシリアル化形式と操作できるコネクターから独立しているためです。一般的なフォーマットの例には、JSON および Avro が含まれます。デフォルトでは、SimpleHeaderConverter は、ヘッダー値を文字列にシリアライズし、スキーマを推測してデシリアライズするために使用されます。

inter.worker.key.generation.algorithm

型: 文字列
デフォルト: HmacSHA256
有効な値: ワーカー JVM
インポートでサポートされるキー生成アルゴリズム: low

内部要求キーを生成するために使用するアルゴリズム。

inter.worker.key.size

型: int
デフォルト: null
インポート: low

内部要求の署名に使用するキーのサイズ(ビット単位)。null の場合、キー生成アルゴリズムのデフォルトの鍵サイズが使用されます。

inter.worker.key.ttl.ms

型: int
デフォルト: 3600000(1 時間)
有効な値: [0,…​,2147483647]
Importance: low

内部リクエスト検証に使用される生成されたセッションキーの TTL(ミリ秒単位)。

inter.worker.signature.algorithm

型: 文字列
デフォルト: HmacSHA256
有効な値: ワーカー JVM
のインポートにサポートされる任意の MACアルゴリズム: low

内部リクエストの署名に使用するアルゴリズム。

inter.worker.verification.algorithms

type: list
デフォルト: HmacSHA256
有効な値: 1 つ以上の MAC アルゴリズムのリスト。ワーカー JVM
インポートシステムでサポートされる各 MAC アルゴリズムのリスト: low

内部要求を検証するための許可されるアルゴリズムのリスト。

internal.key.converter

型: クラス
デフォルト: org.apache.kafka.connect.json.JsonConverter
Importance: low

Kafka Connect 形式と Kafka に書き込まれるシリアライズされた形式間の変換に使用されるコンバータークラス。これは、Kafka から書き込まれたメッセージのキーの形式を制御します。これは、コネクターがシリアル化形式と操作できるコネクターから独立しているためです。一般的なフォーマットの例には、JSON および Avro が含まれます。この設定は、設定やオフセットなどのフレームワークによって使用される内部ブック管理データに使用される形式を制御します。そのため、ユーザーは通常、正常に機能するコンバーターの実装を使用できます。非推奨。今後のバージョンで削除される予定です。

internal.value.converter

型: クラス
デフォルト: org.apache.kafka.connect.json.JsonConverter
Importance: low

Kafka Connect 形式と Kafka に書き込まれるシリアライズされた形式間の変換に使用されるコンバータークラス。これは、Kafka から書き込まれたメッセージの値の形式を制御します。これは、コネクターがシリアル化形式と操作できるコネクターから独立しているためです。一般的なフォーマットの例には、JSON および Avro が含まれます。この設定は、設定やオフセットなどのフレームワークによって使用される内部ブック管理データに使用される形式を制御します。そのため、ユーザーは通常、正常に機能するコンバーターの実装を使用できます。非推奨。今後のバージョンで削除される予定です。

listeners

type: list
デフォルト: null
インポート: low

REST API がリッスンするカンマ区切りの URI の一覧。サポートされるプロトコルは HTTP および HTTPS です。ホスト名を 0.0.0.0 として指定して、全インターフェースにバインドします。デフォルトのインターフェースにバインドするには、hostname は空のままにします。法的リスナー一覧の例: HTTP://myhost:8083,HTTPS://myhost:8084

metadata.max.age.ms

タイプ: long
デフォルト: 300000(5 分)
有効な値: [0,…​]
Importance: low

パーティションリーダーを変更して、新しいブローカーまたはパーティションを正常に検出していない場合でも、メタデータの更新を強制する期間(ミリ秒単位)。

metric.reporters

タイプ: list
デフォルト: ""
Importance: low

メトリクスレポーターとして使用するクラスの一覧。org.apache.kafka.common.metrics.MetricsReporter インターフェースを実装すると、新しいメトリクス作成の通知を受信するクラスにプラグインすることができます。JmxReporter は JMX 統計を登録するために常に含まれます。

metrics.num.samples

型: int
デフォルト: 2
有効な値 [ 1,…​]
Importance: low

メトリックの計算に維持されるサンプル数。

metrics.recording.level

タイプ: string
デフォルト: INFO
有効な値: [INFO, DEBUG]
Importance: low

メトリクスの記録レベル。

metrics.sample.window.ms

型: long
デフォルト: 30000(30 秒)
有効な値: [0,…​]
Importance: low

メトリクスサンプルが計算される期間。

offset.flush.interval.ms

タイプ: long
デフォルト: 60000(1 分)
Importance: low

タスクのオフセットのコミットを試行する間隔。

offset.flush.timeout.ms

タイプ: long
デフォルト: 5000(5 秒)
のインポート: low

レコードをオフセットストレージにフラッシュおよびパーティションオフセットデータをコミットするまでの最大期間(ミリ秒単位)。プロセスをキャンセルして、将来の試行でコミットされたオフセットデータを復元します。

offset.storage.partitions

型: int
デフォルト: 25
有効な値: ポジティブ 番号、またはブローカーのデフォルト
インポート製品を使用するよう -1

オフセットストレージトピックの作成時に使用されるパーティションの数。

offset.storage.replication.factor

タイプ: 短い
デフォルト: 3
有効な値: Kafka クラスターのブローカー数よりも大きいでない数字、または -1(ブローカーのデフォルト
インポート): low

オフセットストレージトピックの作成時に使用されるレプリケーション係数。

plugin.path

type: list
デフォルト: null
インポート: low

プラグイン(connectors、コンバーター、変換)を含むコンマ(,)で区切られたパスの一覧。このリストは、JAR とプラグインの組み合わせが即座に含まれるトップレベルのディレクトリーで構成される必要があります。1 つのディレクトリーには、プラグインとその依存関係 b)の uber-jars、プラグインとその依存関係の c)ディレクトリーが含まれ、その依存関係のパッケージディレクトリー構造が含まれます。シンボリックリンクは、依存関係またはプラグインを検出します。例: plugin.path=/usr/local/share/java,/usr/local/share/kafka/plugins,/opt/connectors Do はこのプロパティーの設定プロバイダー変数を使用しません。未加工パスは、設定変更を初期化して変数を置き換える前にワーカーのスキャナーによって使用されます。

reconnect.backoff.max.ms

型: long
デフォルト: 1000(1 秒)
有効な値: [0,…​]
重要: low

接続に繰り返し失敗したブローカーに再接続するまで待つ最大時間(ミリ秒単位)。指定された場合、ホストごとのバックオフは、連続した接続失敗ごとに指数関数的に増加します。この最大値までです。バックオフの増加を算出したら、接続の量を回避するために 20% random jitter が追加されます。

reconnect.backoff.ms

型: long
デフォルト: 50
有効な値: [0,…​]
Importance: low

指定のホストに再接続を試みる前に待機する時間のベース時間。これにより、密接ループでホストに繰り返し接続できなくなります。このバックオフは、クライアントがブローカーに試行するすべての接続に適用されます。

response.http.headers.config

type: string
Default: ""
Valid Values: Comma-separated header rules: 各ヘッダールールは '[action] [header name]:[header value]' の形式で、任意でヘッダールールの部分にコンマ
Importance(コンマ Importance)が含まれる場合に、任意で二重引用符で囲まれます

REST API HTTP 応答ヘッダーのルール。

rest.advertised.host.name

型: 文字列
デフォルト: null
インポート: low

これが設定されている場合、これは他のワーカーに接続して接続するホスト名になります。

rest.advertised.listener

型: 文字列
デフォルト: null
インポート: low

他のワーカーが使用するワーカーに指定されるアドバタイズされたリスナー(HTTP または HTTPS)を設定します。

rest.advertised.port

型: int
デフォルト: null
インポート: low

これが設定されている場合、これは他のワーカーに接続して接続するポートになります。

rest.extension.classes

タイプ: list
デフォルト: ""
Importance: low

指定された順序でロードされ、ConnectRestExtension クラスのコンマ区切りリスト。インターフェース ConnectRestExtension を実装すると、フィルターなどの Connect の REST API ユーザー定義リソースに注入することができます。通常、ロギング、セキュリティーなどのカスタム機能を追加するために使用されます。

rest.host.name

型: 文字列
デフォルト: null
インポート: low

REST API のホスト名。これが設定されている場合、このインターフェースのみにバインドされます。

rest.port

型: int
デフォルト: 8083
インポート: low

リッスンする REST API のポート。

retry.backoff.ms

型: long
デフォルト: 100
有効な値: [0,…​]
Importance: low

失敗したリクエストを特定のトピックパーティションに再試行するまで待つ期間。これにより、一部の障害シナリオにおいて、密接ループでリクエストを繰り返し送信しないようにします。

sasl.kerberos.kinit.cmd

型: 文字列
デフォルト: /usr/bin/kinit
重要性: low

Kerberos kinit コマンドパス。

sasl.kerberos.min.time.before.relogin

タイプ: long
デフォルト: 60000
インポート: low

更新試行間のログインスレッドスリープ時間。

sasl.kerberos.ticket.renew.jitter

型:
デフォルト: 0.05
インポート: low

更新時間にランダムなジッターが追加されたパーセンテージ。

sasl.kerberos.ticket.renew.window.factor

型:
デフォルト: 0.8
インポート: low

ログインスレッドは、指定のウィンドウ係数からチケットの有効期限に達するまでスリープされます。この期間が経過するとチケットの更新が試行されます。

sasl.login.refresh.buffer.seconds

タイプ: 短い
デフォルト: 300
有効な値: [0,…​,3600]
Importance: low

認証情報を更新するときの認証情報の有効期限(秒単位)。そうでなければ、更新がバッファー秒数よりも期限切れになり、可能な限り多くのバッファー時間を維持するよう更新が行われます。法人の値は 0 から 3600(1 時間)で設定されています。値が指定されていない場合には、デフォルト値の 300(5 分)が使用されます。この値と sasl.login.refresh.min.period.seconds は、合計が認証情報の残りの有効期間を超えた場合に無視されます。現在、OAUTHBEARER にのみ適用されます。

sasl.login.refresh.min.period.seconds

タイプ: 短い
デフォルト: 60
有効な値 [ 0,…​,900]
Importance: low

ログイン更新スレッドで認証情報を更新するまで待つ必要最小限の時間(秒単位)。法人の値は 0 から 900(15 分)で設定されています。値が指定されていない場合には、デフォルト値の 60(1 分)が使用されます。この値と sasl.login.refresh.buffer.seconds は、その合計が認証情報の残りの有効期間を超える場合に無視されます。現在、OAUTHBEARER にのみ適用されます。

sasl.login.refresh.window.factor

型:
デフォルト: 0.8
有効な値 [ 0.5,…​,1.0]
Importance: low

ログイン更新スレッドは、認証情報の有効期間に比べ、指定されたウィンドウ係数に達するまでスリープ状態になり、クレデンシャルの更新を試みます。法人の値は 0.5(50%)と 1.0(100%)の範囲になります。値が指定されていない場合には、デフォルト値の 0.8(80%)が使用されます。現在、OAUTHBEARER にのみ適用されます。

sasl.login.refresh.window.jitter

型:
デフォルト: 0.05
有効な値 [ 0.0,…​,0.25]
Importance: low

ログイン更新スレッドのスリープ時間に追加される認証情報の有効期間に対して、ランダムなジッターの最大量。法人の値は 0 から 0.25(25%)で囲まれています。値が指定されていない場合には、デフォルト値の 0.05(5%)が使用されます。現在、OAUTHBEARER にのみ適用されます。

scheduled.rebalance.max.delay.ms

型: int
デフォルト: 300000(5 分)
有効な値 [ 0,…​,2147483647]
Importance: low

コネクターおよびタスクをグループに再割り当てし、1 つ以上の departed ワーカーを返すまで待機するためにスケジュールされる最大遅延。この期間中、部署されたワーカーのコネクターおよびタスクは割り当てられません。

socket.connection.setup.timeout.max.ms

型: long
デフォルト: 127000(127 秒)
有効な値: [0,…​]
Importance: low

ソケット接続が確立されるまでクライアントが待機する最大時間。接続セットアップのタイムアウトは、この最大値までの連続する接続障害ごとに指数関数的に増加します。接続ストームを回避するために、0.2 のランダム化係数はタイムアウトに適用されます。これにより、計算値の 20% 未満の 20% の範囲がランダムな範囲になります。

socket.connection.setup.timeout.ms

型: long
デフォルト: 10000(10 秒)
有効な値: [0,…​]
インスケーション: low

クライアントがソケット接続を確立するのを待つ時間。タイムアウトが経過する前にコネクションがビルドされない場合、クライアントはソケットチャネルを閉じます。

ssl.cipher.suites

type: list
デフォルト: null
インポート: low

暗号化スイートの一覧。これは、TLS または SSL ネットワークプロトコルを使用してネットワーク接続のセキュリティー設定をネゴシエートするために使用される認証、暗号化、MAC、鍵交換アルゴリズムの名前付きの組み合わせです。デフォルトでは、利用可能なすべての暗号スイートがサポートされます。

ssl.client.auth

型: 文字列
デフォルト: none
インポート: low

Kafka ブローカーがクライアント認証を要求するように設定します。以下は一般的な設定です。

  • ssl.client.auth=required 必要なクライアント認証に設定されていると、必要なクライアント認証が必要です。
  • ssl.client.auth=requested そのため、このオプションが設定されているとクライアント自体の認証情報を提供しないことができない場合があるため、クライアントの認証は任意です。
  • ssl.client.auth=none これは、クライアント認証が不要であることを意味します。
ssl.endpoint.identification.algorithm

型: 文字列
デフォルト: https
インポート: low

サーバー証明書を使用してサーバーのホスト名を検証するエンドポイント識別アルゴリズム。

ssl.engine.factory.class

型: クラス
デフォルト: null
のインポート: low

SSLEngine オブジェクトを提供するために、org.apache.kafka.common.security.auth.SslEngineFactory タイプのクラス。Default value is org.apache.kafka.common.security.ssl.DefaultSslEngineFactory.

ssl.keymanager.algorithm

型: 文字列
デフォルト: SunX509
インポート: low

SSL 接続のキーマネージャーファクトリーによって使用されるアルゴリズム。デフォルト値は、Java 仮想マシンに設定されたキーマネージャーファクトリーアルゴリズムです。

ssl.secure.random.implementation

型: 文字列
デフォルト: null
インポート: low

SSL 暗号操作に使用する SecureRandom PRNG 実装。

ssl.trustmanager.algorithm

タイプ: 文字列
デフォルト: PKIX
インポート: low

SSL 接続のトラストマネージャーファクトリーによって使用されるアルゴリズム。デフォルト値は、Java 仮想マシンに設定されたトラストマネージャーファクトリーアルゴリズムです。

status.storage.partitions

型: int
デフォルト: 5
有効な値: ポジティブ 番号、またはブローカーのデフォルト
インポート製品を使用するよう -1

ステータスストレージトピックの作成時に使用されるパーティションの数。

status.storage.replication.factor

タイプ: 短い
デフォルト: 3
有効な値: Kafka クラスターのブローカー数よりも大きいでない数字、または -1(ブローカーのデフォルト
インポート): low

ステータスストレージトピックの作成時に使用されるレプリケーション係数。

task.shutdown.graceful.timeout.ms

タイプ: long
デフォルト: 5000(5 秒)
のインポート: low

タスクが正常にシャットダウンするのを待つ時間。これは、タスクごとにではなく、合計時間です。すべてのタスクがシャットダウンがトリガーされてから、順次待機します。

topic.creation.enable

型: ブール値
デフォルト: true
インポート: low

ソースコネクターと topic.creation. プロパティーが設定されたときに、ソースコネクターによって使用されるトピックの自動作成を許可するかどうか。各タスクは管理クライアントを使用してトピックを作成し、Kafka ブローカーに依存してトピックを自動的に作成します。

topic.tracking.allow.reset

型: ブール値
デフォルト: true
インポート: low

true に設定すると、ユーザーリクエストはコネクターごとにアクティブなトピックのセットをリセットできます。

topic.tracking.enable

型: ブール値
デフォルト: true
インポート: low

ランタイム中のコネクターごとにアクティブなトピックのセットの追跡を有効にします。

Red Hat logoGithubRedditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

© 2024 Red Hat, Inc.