7.3. Kafka のデプロイ
Cluster Operator で Kafka クラスターを管理できるようにするには、これを Kafka
リソースとしてデプロイする必要があります。Streams for Apache Kafka では、これを行うためにデプロイメントファイルのサンプルが提供されます。これらのファイルを使用して、Topic Operator および User Operator を同時にデプロイできます。
Cluster Operator をデプロイしたら、Kafka
リソースを使用して次のコンポーネントをデプロイします。
KRaft または ZooKeeper を使用する Kafka クラスター:
- Topic Operator
- User Operator
ノードプールは、KRaft (Kafka Raft メタデータ) モードの Kafka クラスターのデプロイメントに使用されます。また、ZooKeeper を使用した Kafka クラスターのデプロイメントにも使用されることがあります。ノードプールは、同じ設定を共有する Kafka クラスター内の異なる Kafka ノードの個別のグループを表します。ノードプール内の各 Kafka ノードでは、ノードプールで定義されていない設定が、Kafka
リソース内のクラスター設定から継承されます。
Kafka クラスターを Kafka
リソースとしてデプロイしていない場合は、Cluster Operator を使用してこのクラスターを管理できません。これには、OpenShift 外で実行されている Kafka クラスターなどが該当します。ただし、Topic Operator と User Operator を スタンドアロンコンポーネントとしてデプロイ することで、それらを Streams for Apache Kafka によって 管理されていない Kafka クラスターで使用できます。また、Streams for Apache Kafka によって管理されていない Kafka クラスターで、その他の Kafka コンポーネントをデプロイして使用することもできます。
7.3.1. KRaft モードの Kafka クラスターのデプロイ
この手順では、Cluster Operator を使用して、KRaft モードの Kafka クラスターと関連するノードプールをデプロイする方法を示します。
このデプロイでは、YAML ファイルを使用して、Kafka
リソースと KafkaNodePool
リソースを作成するための仕様を指定します。
Streams for Apache Kafka には、ノードプールを使用する Kafka クラスターの作成に使用できる次の サンプルデプロイメントファイル が用意されています。
kafka/kraft/kafka-with-dual-role-nodes.yaml
- ブローカーとコントローラーの役割を共有する 1 つのノードプールを備えた Kafka クラスターをデプロイします。
kafka/kraft/kafka.yaml
- コントローラーノードの 1 つのプールとブローカーノードの 1 つのプールを備えた永続的な Kafka クラスターをデプロイします。
kafka/kraft/kafka-ephemeral.yaml
- コントローラーノードの 1 つのプールとブローカーノードの 1 つのプールを備えた一時的な Kafka クラスターをデプロイします。
kafka/kraft/kafka-single-node.yaml
- シングルノードの Kafka クラスターをデプロイします。
kafka/kraft/kafka-jbod.yaml
- 各ブローカーノードに複数のボリュームを持つ Kafka クラスターをデプロイします。
この手順では、サンプルデプロイメントファイルを使用して、ブローカーとコントローラーの役割を共有する 1 つのノードプールを備えた Kafka クラスターをデプロイします。
各サンプルの Kafka
リソース設定には、ノードプールを使用する場合に必要な strimzi.io/node-pools: enabled
アノテーションが含まれています。KRaft モードを使用する Kafka
リソースには、アノテーション strimzi.io/kraft: enabled
も必要です。
サンプル YAML ファイルでは、Kafka クラスターで使用されるサポート対象の最新の Kafka バージョンおよび KRaft メタデータバージョンが指定されています。
ここで説明する手順を実行して、KafkaNodePool
リソースを使用して新しい Kafka クラスターをデプロイしたり、既存の Kafka クラスターを移行 したりできます。
作業を始める前に
サンプルデプロイメントファイルでは、デフォルトで Kafka クラスター名として my-cluster
が指定されます。クラスターがデプロイされた後は名前を変更できません。クラスターをデプロイする前にクラスター名を変更するには、関連する YAML ファイルにある Kafka
リソースの Kafka.metadata.name
プロパティーを編集します。
手順
KRaft ベースの Kafka クラスターをデプロイします。
デュアルロールノードを使用する 1 つのノードプールを備えた Kafka クラスターをデプロイするには、次のコマンドを実行します。
oc apply -f examples/kafka/kraft/kafka-with-dual-role-nodes.yaml
oc apply -f examples/kafka/kraft/kafka-with-dual-role-nodes.yaml
Copy to Clipboard Copied! デプロイメントのステータスを確認します。
oc get pods -n <my_cluster_operator_namespace>
oc get pods -n <my_cluster_operator_namespace>
Copy to Clipboard Copied! 出力にはノードプール名と準備状況が表示されます
NAME READY STATUS RESTARTS my-cluster-entity-operator 3/3 Running 0 my-cluster-pool-a-0 1/1 Running 0 my-cluster-pool-a-1 1/1 Running 0 my-cluster-pool-a-4 1/1 Running 0
NAME READY STATUS RESTARTS my-cluster-entity-operator 3/3 Running 0 my-cluster-pool-a-0 1/1 Running 0 my-cluster-pool-a-1 1/1 Running 0 my-cluster-pool-a-4 1/1 Running 0
Copy to Clipboard Copied! -
my-cluster
は Kafka クラスターの名前です。 pool-a
はノードプールの名前です。0
で始まる連続したインデックス番号は、作成された各 Kafka Pod を識別します。ZooKeeper を使用している場合は、ZooKeeper Pod も表示されます。READY
は、ready/expected 状態のレプリカ数を表示します。STATUS
がRunning
と表示されれば、デプロイメントは成功です。デプロイに関する情報は、プール内のノードの ID のリストなど、
KafkaNodePool
リソースのステータスにも表示されます。注記ノード ID は、クラスター内のすべてのノードプールにわたって 0 (ゼロ) から順番に割り当てられます。これは、ノード ID が特定のノードプール内で連続して実行されない可能性があることを意味します。クラスター全体のノード ID のシーケンスにギャップがある場合、追加される次のノードにはギャップを埋める ID が割り当てられます。スケールダウンすると、プール内で最も大きな数のノード ID を持つノードが削除されます。
-
7.3.2. ZooKeeper ベースの Kafka クラスターのデプロイ
この手順では、Cluster Operator を使用して ZooKeeper ベースの Kafka クラスターを OpenShift クラスターにデプロイする方法を示します。
デプロイメントでは、YAML ファイルの仕様を使用して Kafka
リソースが作成されます。
Streams for Apache Kafka には、クラスター管理に ZooKeeper を使用する Kafka クラスターを作成するための次の サンプルデプロイメントファイル が用意されています。
kafka-persistent.yaml
- 3 つの ZooKeeper ノードと 3 つの Kafka ノードを使用して永続クラスターをデプロイします。
kafka-jbod.yaml
- それぞれが複数の永続ボリューを使用する、3 つの ZooKeeper ノードと 3 つの Kafka ノードを使用して、永続クラスターをデプロイします。
kafka-persistent-single.yaml
- 1 つの ZooKeeper ノードと 1 つの Kafka ノードを使用して、永続クラスターをデプロイします。
kafka-ephemeral.yaml
- 3 つの ZooKeeper ノードと 3 つの Kafka ノードを使用して、一時クラスターをデプロイします。
kafka-ephemeral-single.yaml
- 3 つの ZooKeeper ノードと 1 つの Kafka ノードを使用して、一時クラスターをデプロイします。
ノードプールを使用する Kafka クラスターをデプロイする場合は、次のサンプル YAML ファイルに、Kafka
リソースと KafkaNodePool
リソースを作成するための仕様が示されています。
kafka/kafka-with-node-pools.yaml
- 3 つのノードと 2 つの異なる Kafka ブローカープールを備えた ZooKeeper をデプロイします。各プールには 3 つのブローカーがあります。この例のプールは、異なるストレージ設定を使用しています。
この手順では、一時的および永続的な Kafka クラスターデプロイメントの例を使用します。
サンプル YAML ファイルでは、サポート対象の最新の Kafka バージョンとブローカー間プロトコルバージョンが指定されています。
Kafka 3.0.0 以降、inter.broker.protocol.version
が 3.0
以上に設定されていると、log.message.format.version
オプションは無視されるため、設定する必要はありません。
作業を始める前に
サンプルデプロイメントファイルでは、デフォルトで Kafka クラスター名として my-cluster
が指定されます。クラスターがデプロイされた後は名前を変更できません。クラスターをデプロイする前にクラスター名を変更するには、関連する YAML ファイルにある Kafka
リソースの Kafka.metadata.name
プロパティーを編集します。
手順
ZooKeeper ベースの Kafka クラスターをデプロイします。
一時クラスターをデプロイするには、以下を実行します。
oc apply -f examples/kafka/kafka-ephemeral.yaml
oc apply -f examples/kafka/kafka-ephemeral.yaml
Copy to Clipboard Copied! 永続クラスターをデプロイするには、以下を実行します。
oc apply -f examples/kafka/kafka-persistent.yaml
oc apply -f examples/kafka/kafka-persistent.yaml
Copy to Clipboard Copied!
デプロイメントのステータスを確認します。
oc get pods -n <my_cluster_operator_namespace>
oc get pods -n <my_cluster_operator_namespace>
Copy to Clipboard Copied! Pod 名および readiness が表示される出力
NAME READY STATUS RESTARTS my-cluster-entity-operator 3/3 Running 0 my-cluster-kafka-0 1/1 Running 0 my-cluster-kafka-1 1/1 Running 0 my-cluster-kafka-2 1/1 Running 0 my-cluster-zookeeper-0 1/1 Running 0 my-cluster-zookeeper-1 1/1 Running 0 my-cluster-zookeeper-2 1/1 Running 0
NAME READY STATUS RESTARTS my-cluster-entity-operator 3/3 Running 0 my-cluster-kafka-0 1/1 Running 0 my-cluster-kafka-1 1/1 Running 0 my-cluster-kafka-2 1/1 Running 0 my-cluster-zookeeper-0 1/1 Running 0 my-cluster-zookeeper-1 1/1 Running 0 my-cluster-zookeeper-2 1/1 Running 0
Copy to Clipboard Copied! my-cluster
は Kafka クラスターの名前です。0
で始まる連続インデックス番号は、作成された各 Kafka および ZooKeeper Pod を識別します。デフォルトのデプロイメントでは、Entity Operator クラスター、3 つの Kafka Pod、および 3 つの ZooKeeper Pod を作成します。
READY
は、ready/expected 状態のレプリカ数を表示します。STATUS
がRunning
と表示されれば、デプロイメントは成功です。
7.3.3. Cluster Operator を使用した Topic Operator のデプロイ
この手順では、Cluster Operator を使用して Topic Operator をデプロイする方法を説明します。
Kafka
リソースの entityOperator
プロパティーを設定し、topicOperator
が含まれるようにします。デフォルトでは、Topic Operator は Cluster Operator によってデプロイされた Kafka クラスターの namespace で KafkaTopic
リソースを監視します。Topic Operator spec
で watchedNamespace
を使用して namespace を指定することもできます。1 つの Topic Operator が監視できるのは、namespace 1 つです。1 つの namespace を監視するのは、Top Operator 1 つのみとします。
Streams for Apache Kafka を使用して複数の Kafka クラスターを同じ namespace にデプロイする場合は、1 つの Kafka クラスターに対してのみ Topic Operator を有効にするか、watchedNamespace
プロパティーを使用して Topic Operator が他の namespace を監視するように設定します。
Streams for Apache Kafka によって管理されない Kafka クラスターを Topic Operator と使用する場合は、Topic Operator をスタンドアロンコンポーネントとしてデプロイ する必要があります。
entityOperator
および topicOperator
プロパティーの設定に関する詳細は、Configuring the Entity Operator を参照してください。
手順
Kafka
リソースのentityOperator
プロパティーを編集し、topicOperator
が含まれるようにします。apiVersion: kafka.strimzi.io/v1beta2 kind: Kafka metadata: name: my-cluster spec: #... entityOperator: topicOperator: {} userOperator: {}
apiVersion: kafka.strimzi.io/v1beta2 kind: Kafka metadata: name: my-cluster spec: #... entityOperator: topicOperator: {} userOperator: {}
Copy to Clipboard Copied! EntityTopicOperatorSpec
スキーマリファレンス に記載されているプロパティーを使用して、Topic Operator のspec
を設定します。すべてのプロパティーにデフォルト値を使用する場合は、空のオブジェクト (
{}
) を使用します。リソースを作成または更新します。
oc apply -f <kafka_configuration_file>
oc apply -f <kafka_configuration_file>
Copy to Clipboard Copied! デプロイメントのステータスを確認します。
oc get pods -n <my_cluster_operator_namespace>
oc get pods -n <my_cluster_operator_namespace>
Copy to Clipboard Copied! Pod 名と準備状況が表示される出力
NAME READY STATUS RESTARTS my-cluster-entity-operator 3/3 Running 0 # ...
NAME READY STATUS RESTARTS my-cluster-entity-operator 3/3 Running 0 # ...
Copy to Clipboard Copied! my-cluster
は Kafka クラスターの名前です。READY
は、ready/expected 状態のレプリカ数を表示します。STATUS
がRunning
と表示されれば、デプロイメントは成功です。
7.3.4. Cluster Operator を使用した User Operator のデプロイ
この手順では、Cluster Operator を使用して User Operator をデプロイする方法を説明します。
Kafka
リソースの entityOperator
プロパティーを設定し、userOperator
が含まれるようにします。デフォルトでは、User Operator は Kafka クラスターデプロイメントの namespace で KafkaUser
リソースを監視します。User Operator spec
で watchedNamespace
を使用して namespace を指定することもできます。1 つの User Operator が監視できるのは、namespace 1 つです。1 つの namespace を監視するのは、User Operator 1 つのみとします。
Streams for Apache Kafka によって管理されていない Kafka クラスターを User Operator と使用する場合は、User Operator をスタンドアロンコンポーネントとしてデプロイ する必要があります。
entityOperator
および userOperator
プロパティーの設定に関する詳細は、Configuring the Entity Operator を参照してください。
手順
Kafka
リソースのentityOperator
プロパティーを編集し、userOperator
が含まれるようにします。apiVersion: kafka.strimzi.io/v1beta2 kind: Kafka metadata: name: my-cluster spec: #... entityOperator: topicOperator: {} userOperator: {}
apiVersion: kafka.strimzi.io/v1beta2 kind: Kafka metadata: name: my-cluster spec: #... entityOperator: topicOperator: {} userOperator: {}
Copy to Clipboard Copied! EntityUserOperatorSpec
スキーマリファレンス に記載されているプロパティーを使用して、User Operator のspec
を設定します。すべてのプロパティーにデフォルト値を使用する場合は、空のオブジェクト (
{}
) を使用します。リソースを作成または更新します。
oc apply -f <kafka_configuration_file>
oc apply -f <kafka_configuration_file>
Copy to Clipboard Copied! デプロイメントのステータスを確認します。
oc get pods -n <my_cluster_operator_namespace>
oc get pods -n <my_cluster_operator_namespace>
Copy to Clipboard Copied! Pod 名と準備状況が表示される出力
NAME READY STATUS RESTARTS my-cluster-entity-operator 3/3 Running 0 # ...
NAME READY STATUS RESTARTS my-cluster-entity-operator 3/3 Running 0 # ...
Copy to Clipboard Copied! my-cluster
は Kafka クラスターの名前です。READY
は、ready/expected 状態のレプリカ数を表示します。STATUS
がRunning
と表示されれば、デプロイメントは成功です。
7.3.5. ターミナルからの ZooKeeper への接続
ZooKeeper サービスは暗号化と認証によって保護されており、Streams for Apache Kafka の一部でない外部アプリケーションでの使用は想定されていません。
ただし、ZooKeeper への接続が必要な CLI ツールを使用する場合は、ZooKeeper Pod 内の端末を使用して、ZooKeeper アドレスとして localhost:12181
に接続できます。
前提条件
- 利用可能な OpenShift クラスター
- 稼働中の Kafka クラスター
- Cluster Operator が稼働中である。
手順
OpenShift コンソールを使用してターミナルを開くか、CLI から
exec
コマンドを実行します。以下に例を示します。
oc exec -ti my-cluster-zookeeper-0 -- bin/zookeeper-shell.sh localhost:12181 ls /
oc exec -ti my-cluster-zookeeper-0 -- bin/zookeeper-shell.sh localhost:12181 ls /
Copy to Clipboard Copied! 必ず
localhost:12181
を使用してください。
7.3.6. Kafka クラスターリソースのリスト
以下のリソースは、OpenShift クラスターの Cluster Operator によって作成されます。
共有リソース
<kafka_cluster_name>-cluster-ca
- クラスター通信の暗号化に使用されるクラスター CA プライベートキーのあるシークレット。
<kafka_cluster_name>-cluster-ca-cert
- クラスター CA 公開鍵のあるシークレット。このキーは、Kafka ブローカーのアイデンティティーの検証に使用できます。
<kafka_cluster_name>-clients-ca
- ユーザー証明書に署名するために使用されるクライアント CA 秘密鍵のあるシークレット。
<kafka_cluster_name>-clients-ca-cert
- クライアント CA 公開鍵のあるシークレット。このキーは、Kafka ユーザーのアイデンティティーの検証に使用できます。
<kafka_cluster_name>-cluster-operator-certs
- Kafka および ZooKeeper と通信するための Cluster Operator キーのあるシークレット。
ZooKeeper ノード
<kafka_cluster_name>-zookeeper
以下の ZooKeeper リソースに指定された名前。
- ZooKeeper ノード Pod を管理するための StrimziPodSet。
- ZooKeeper ノードで使用されるサービスアカウント。
- ZooKeeper ノードに設定された PodDisruptionBudget。
<kafka_cluster_name>-zookeeper-<pod_id>
- StrimziPodSet によって作成された Pod。
<kafka_cluster_name>-zookeeper-nodes
- DNS が ZooKeeper Pod の IP アドレスを直接解決するのに必要なヘッドレスサービス。
<kafka_cluster_name>-zookeeper-client
- Kafka ブローカーがクライアントとして ZooKeeper ノードに接続するために使用するサービス。
<kafka_cluster_name>-zookeeper-config
- ZooKeeper 補助設定が含まれ、ZooKeeper ノード Pod によってボリュームとしてマウントされる ConfigMap。
<kafka_cluster_name>-zookeeper-nodes
- ZooKeeper ノードキーがあるシークレット。
<kafka_cluster_name>-network-policy-zookeeper
- ZooKeeper サービスへのアクセスを管理するネットワークポリシー。
data-<kafka_cluster_name>-zookeeper-<pod_id>
- 特定の ZooKeeper ノードのデータを保存するために使用されるボリュームの永続ボリューム要求。このリソースは、データを保存するために永続ボリュームのプロビジョニングに永続ストレージが選択された場合のみ作成されます。
Kafka ブローカー
<kafka_cluster_name>-kafka
以下の Kafka リソースに指定された名前。
- Kafka ブローカー Pod を管理するための StrimziPodSet。
- Kafka Pod によって使用されるサービスアカウント。
- Kafka ブローカーに設定された PodDisruptionBudget。
<kafka_cluster_name>-kafka-<pod_id>
以下の Kafka リソースに指定された名前。
- StrimziPodSet によって作成された Pod。
- Kafka ブローカー設定を使用した ConfigMap。
<kafka_cluster_name>-kafka-brokers
- DNS が Kafka ブローカー Pod の IP アドレスを直接解決するのに必要なサービス。
<kafka_cluster_name>-kafka-bootstrap
- サービスは、OpenShift クラスター内から接続する Kafka クライアントのブートストラップサーバーとして使用できます。
<kafka_cluster_name>-kafka-external-bootstrap
-
OpenShift クラスター外部から接続するクライアントのブートストラップサービス。このリソースは、外部リスナーが有効な場合にのみ作成されます。リスナー名が
external
でポートが9094
の場合、後方互換性のために古いサービス名が使用されます。 <kafka_cluster_name>-kafka-<pod_id>
-
トラフィックを OpenShift クラスターの外部から個別の Pod にルーティングするために使用されるサービス。このリソースは、外部リスナーが有効な場合にのみ作成されます。リスナー名が
external
でポートが9094
の場合、後方互換性のために古いサービス名が使用されます。 <kafka_cluster_name>-kafka-external-bootstrap
-
OpenShift クラスターの外部から接続するクライアントのブートストラップルート。このリソースは、外部リスナーが有効でタイプが
route
に設定されている場合にのみ作成されます。リスナー名がexternal
でポートが9094
の場合、後方互換性のために古いルート名が使用されます。 <kafka_cluster_name>-kafka-<pod_id>
-
OpenShift クラスターの外部から個別の Pod へのトラフィックに対するルート。このリソースは、外部リスナーが有効でタイプが
route
に設定されている場合にのみ作成されます。リスナー名がexternal
でポートが9094
の場合、後方互換性のために古いルート名が使用されます。 <kafka_cluster_name>-kafka-<listener_name>-bootstrap
- OpenShift クラスター外部から接続するクライアントのブートストラップサービス。このリソースは、外部リスナーが有効な場合にのみ作成されます。新しいサービス名はその他すべての外部リスナーに使用されます。
<kafka_cluster_name>-kafka-<listener_name>-<pod_id>
- トラフィックを OpenShift クラスターの外部から個別の Pod にルーティングするために使用されるサービス。このリソースは、外部リスナーが有効な場合にのみ作成されます。新しいサービス名はその他すべての外部リスナーに使用されます。
<kafka_cluster_name>-kafka-<listener_name>-bootstrap
-
OpenShift クラスターの外部から接続するクライアントのブートストラップルート。このリソースは、外部リスナーが有効でタイプが
route
に設定されている場合にのみ作成されます。新しいルート名はその他すべての外部リスナーに使用されます。 <kafka_cluster_name>-kafka-<listener_name>-<pod_id>
-
OpenShift クラスターの外部から個別の Pod へのトラフィックに対するルート。このリソースは、外部リスナーが有効でタイプが
route
に設定されている場合にのみ作成されます。新しいルート名はその他すべての外部リスナーに使用されます。 <kafka_cluster_name>-kafka-config
-
Kafka の補助設定を含む ConfigMap。
UseStrimziPodSets
フィーチャーゲートが無効な場合、ブローカー Pod によってボリュームとしてマウントされます。 <kafka_cluster_name>-kafka-brokers
- Kafka ブローカーキーのあるシークレット。
<kafka_cluster_name>-network-policy-kafka
- Kafka サービスへのアクセスを管理するネットワークポリシー。
strimzi-namespace-name-<kafka_cluster_name>-kafka-init
- Kafka ブローカーによって使用されるクラスターロールバインディング。
<kafka_cluster_name>-jmx
- Kafka ブローカーポートのセキュア化に使用される JMX ユーザー名およびパスワードのあるシークレット。このリソースは、Kafka で JMX が有効になっている場合にのみ作成されます。
data-<kafka_cluster_name>-kafka-<pod_id>
- 特定の Kafka ブローカーのデータを保存するために使用されるボリュームの永続ボリューム要求。このリソースは、データを保存するために永続ボリュームのプロビジョニングに永続ストレージが選択された場合のみ作成されます。
data-<id>-<kafka_cluster_name>-kafka-<pod_id>
-
特定の Kafka ブローカーのデータを保存するために使用されるボリューム
id
の永続ボリューム要求。このリソースは、永続ボリュームをプロビジョニングしてデータを保存するときに、JBOD ボリュームに永続ストレージが選択された場合のみ作成されます。
Kafka ノードプール
Kafka ノードプールを使用している場合、作成されたリソースは、ノードがブローカー、コントローラー、またはその両方として動作しているかどうかに関係なく、ノードプールで管理されているノードに適用されます。命名規則には、Kafka クラスターとノードプールの名前が含まれます (<kafka_cluster_name>-<pool_name>
)。
<kafka_cluster_name>-<pool_name>
- Kafka ノードプールを管理するために StrimziPodSet に指定された名前。
<kafka_cluster_name>-<pool_name>-<pod_id>
次の Kafka ノードプールリソースに与えられた名前。
- StrimziPodSet によって作成された Pod。
- Kafka ノード設定を使用した ConfigMap。
data-<kafka_cluster_name>-<pool_name>-<pod_id>
- 特定のノードのデータを保存するために使用されるボリュームに対する永続ボリューム要求。このリソースは、データを保存するために永続ボリュームのプロビジョニングに永続ストレージが選択された場合のみ作成されます。
data-<id>-<kafka_cluster_name>-<pool_name>-<pod_id>
-
特定のノードのデータを保存するために使用されるボリューム
id
に対する永続ボリューム要求。このリソースは、永続ボリュームをプロビジョニングしてデータを保存するときに、JBOD ボリュームに永続ストレージが選択された場合のみ作成されます。
Entitiy Operator
これらのリソースは、Cluster Operator を使用して Entity Operator がデプロイされる場合にのみ作成されます。
<kafka_cluster_name>-entity-operator
以下の Entity Operator リソースに指定された名前:
- Topic および User Operator とのデプロイメント。
- Entity Operator によって使用されるサービスアカウント。
- Entity Operator メトリックへのアクセスを管理するネットワークポリシー。
<kafka_cluster_name>-entity-operator-<random_string>
- Entity Operator デプロイメントによって作成された Pod。
<kafka_cluster_name>-entity-topic-operator-config
- Topic Operator の補助設定のある ConfigMap。
<kafka_cluster_name>-entity-user-operator-config
- User Operator の補助設定のある ConfigMap。
<kafka_cluster_name>-entity-topic-operator-certs
- Kafka および ZooKeeper と通信するための Topic Operator キーのあるシークレット。
<kafka_cluster_name>-entity-user-operator-certs
- Kafka および ZooKeeper と通信するための User Operator キーのあるシークレット。
strimzi-<kafka_cluster_name>-entity-topic-operator
- Entity Topic Operator によって使用されるロールバインディング。
strimzi-<kafka_cluster_name>-entity-user-operator
- Entity User Operator によって使用されるロールバインディング。
Kafka Exporter
これらのリソースは、Cluster Operator を使用して Kafka Exporter がデプロイされる場合にのみ作成されます。
<kafka_cluster_name>-kafka-exporter
以下の Kafka Exporter リソースに指定された名前。
- Kafka Exporter でのデプロイメント。
- コンシューマーラグメトリックの収集に使用されるサービス。
- Kafka Exporter によって使用されるサービスアカウント。
- Kafka Exporter メトリックへのアクセスを管理するネットワークポリシー。
<kafka_cluster_name>-kafka-exporter-<random_string>
- Kafka Exporter デプロイメントによって作成された Pod。
Cruise Control
これらのリソースは、Cluster Operator を使用して Cruise Control がデプロイされた場合のみ作成されます。
<kafka_cluster_name>-cruise-control
以下の Cruise Control リソースに指定された名前。
- Cruise Control でのデプロイメント。
- Cruise Control との通信に使用されるサービス。
- Cruise Control によって使用されるサービスアカウント。
<kafka_cluster_name>-cruise-control-<random_string>
- Cruise Control デプロイメントによって作成された Pod。
<kafka_cluster_name>-cruise-control-config
- Cruise Control の補助設定が含まれ、Cruise Control Pod によってボリュームとしてマウントされる ConfigMap。
<kafka_cluster_name>-cruise-control-certs
- Kafka および ZooKeeper と通信するための Cruise Control キーのあるシークレット。
<kafka_cluster_name>-network-policy-cruise-control
- Cruise Control サービスへのアクセスを管理するネットワークポリシー。