openshift_logging_install_logging
|
ロギングをインストールする場合は true に設定します。ロギングをアンインストールする場合は false に設定します。true に設定される場合、openshift_logging_es_nodeselector を使用してノードセレクターを指定する必要があります。
|
openshift_logging_use_ops
|
true に設定されている場合、操作ログに対して 2 番目の Elasticsearch クラスターと Kibana を設定します。Fluentd はメインクラスターと操作ログ用に予約されているクラスター (default、openshift、openshift-infra の各プロジェクトのログ、Docker、OpenShift、およびジャーナルのシステムログで設定される) の間でログを分割します。これにより、2 番目の Elasticsearch クラスターと Kibana がデプロイされます。デプロイメントは名前に含まれる -ops 接尾辞で見分けることができ、以下に一覧表示されている並列デプロイメントオプションがあります。 並列デプロイメントオプションについては、Curator 設定の作成 で説明されています。true に設定すると、openshift_logging_es_ops_nodeselector は必須です。
|
openshift_logging_master_url
|
Kubernetes マスターの URL。これは公開されている必要はありませんが、クラスター内からアクセスできる必要があります(例: https://<PRIVATE-MASTER-URL>:8443)。
|
openshift_logging_purge_logging
|
通常のアンインストールでは、再インストール中の予期せぬデータ損失を防ぐために PVC が維持されます。Ansible Playbook が完全かつ不可逆的にすべてのロギング永続データ (PVC を含む) を確実に削除するようにするには、openshift_logging_install_logging を false に設定してアンインストールをトリガーし、openshift_logging_purge_logging を true に設定します。デフォルトは false に設定されます。
|
openshift_logging_install_eventrouter
|
openshift_logging_install_logging と併用します。いずれも true に設定されると、eventrouter がインストールされます。いずれも false の場合、eventrouter はアンインストールされます。
|
openshift_logging_eventrouter_image
|
Eventrouter のイメージバージョン。例: registry.redhat.io/openshift3/ose-logging-eventrouter:v3.11
|
openshift_logging_eventrouter_image_version
|
ロギング eventrouter のイメージバージョン
|
openshift_logging_eventrouter_sink
|
eventrouter のシンク (受信側) を選択します。stdout と glog がサポートされています。デフォルトでは stdout に設定されています。
|
openshift_logging_eventrouter_nodeselector
|
Pod が到達するノードを選択するためのラベルのマップ ("node":"infra" 、"region":"west" など)。
|
openshift_logging_eventrouter_replicas
|
デフォルトは 1 に設定されます。
|
openshift_logging_eventrouter_cpu_limit
|
eventrouter に割り当てる最小 CPU 量。デフォルトでは 100m に設定されます。
|
openshift_logging_eventrouter_memory_limit
|
eventrouter Pod のメモリー制限。デフォルトでは 128Mi に設定されます。
|
openshift_logging_eventrouter_namespace
|
eventrouter がデプロイされる project。デフォルトでは default に設定されます。
プロジェクトを default または openshift-* 以外に設定しないでください。異なるプロジェクトを指定する場合、他のプロジェクトからのイベント情報が運用ユーザーに制限されていないインデックスにリークされる可能性があります。デフォルト以外のプロジェクトを使用するには、oc new-project を使用して通常の方法でプロジェクトを作成します。
|
openshift_logging_image_pull_secret
|
認証済みレジストリーからコンポーネントイメージをプルするために使用される既存のプルシークレットの名前を指定します。
|
openshift_logging_curator_image
|
Curator のイメージバージョン。例: registry.redhat.io/openshift3/ose-logging-curator5:v3.11
|
openshift_logging_curator_default_days
|
ログレコードを削除するために Curator が使用するデフォルトの最小期間 (日単位)。
|
openshift_logging_curator_run_hour
|
Curator が実行される時刻 (時間)。
|
openshift_logging_curator_run_minute
|
Curator が実行される時刻 (分)。
|
openshift_logging_curator_run_timezone
|
実行時間を割り出すために Curator が使用するタイムゾーン。タイムゾーンは、America/New_York または UTC など、tzselect(8) または timedatectl(1) の "リージョン/ローカリティー" 形式の文字列で指定します。
|
openshift_logging_curator_script_log_level
|
Curator のスクリプトログレベル。
|
openshift_logging_curator_log_level
|
Curator プロセスのログレベル。
|
openshift_logging_curator_cpu_limit
|
Curator に割り当てる CPU 量。
|
openshift_logging_curator_memory_limit
|
Curator に割り当てるメモリー量。
|
openshift_logging_curator_nodeselector
|
Curator インスタンスをデプロイできるターゲットのノードを指定するノードセレクター。
|
openshift_logging_curator_ops_cpu_limit
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_curator_cpu_limit と同等です。
|
openshift_logging_curator_ops_memory_limit
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_curator_memory_limit と同等です。
|
openshift_logging_curator_replace_configmap
|
アップグレードで logging-curator ConfigMap を置き換えられないように no に設定します。ConfigMap を上書きできるようにするには、yes に設定します。
|
openshift_logging_kibana_image
|
Kibana のイメージバージョン。例: registry.redhat.io/openshift3/ose-logging-kibana5:v3.11
|
openshift_logging_kibana_hostname
|
Kibana に到達する Web クライアントの外部ホスト名。
|
openshift_logging_kibana_cpu_limit
|
Kibana に割り当てる CPU 量。
|
openshift_logging_kibana_memory_limit
|
Kibana に割り当てるメモリー量。
|
openshift_logging_kibana_proxy_image
|
Kibana プロキシーのイメージバージョン。例: registry.redhat.io/openshift3/oauth-proxy:v3.11
|
openshift_logging_kibana_proxy_debug
|
true の場合、Kibana プロキシーのログレベルを DEBUG に設定します。
|
openshift_logging_kibana_proxy_cpu_limit
|
Kibana プロキシーに割り当てる CPU 量。
|
openshift_logging_kibana_proxy_memory_limit
|
Kibana プロキシーに割り当てるメモリー量。
|
openshift_logging_kibana_replica_count
|
Kibana を拡張するノード数。
|
openshift_logging_kibana_nodeselector
|
Kibana インスタンスをデプロイできるターゲットのノードを指定するノードセレクター。
|
openshift_logging_kibana_env_vars
|
Kibana デプロイメント設定に追加する環境変数のマップ。例: {"ELASTICSEARCH_REQUESTTIMEOUT":"30000"}
|
openshift_logging_kibana_key
|
Kibana ルートの作成時に使用する公開されているキー。
|
openshift_logging_kibana_cert
|
Kibana ルートの作成時にキーに一致する証明書。
|
openshift_logging_kibana_ca
|
オプション。キーに添付する CA と、Kibana ルートの作成時に使用される証明書。
|
openshift_logging_kibana_ops_hostname
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_kibana_hostname と同等です。
|
openshift_logging_kibana_ops_cpu_limit
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_kibana_cpu_limit と同等です。
|
openshift_logging_kibana_ops_memory_limit
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_kibana_memory_limit と同等です。
|
openshift_logging_kibana_ops_proxy_debug
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_kibana_proxy_debug と同等です。
|
openshift_logging_kibana_ops_proxy_cpu_limit
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_kibana_proxy_cpu_limit と同等です。
|
openshift_logging_kibana_ops_proxy_memory_limit
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_kibana_proxy_memory_limit と同等です。
|
openshift_logging_kibana_ops_replica_count
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_kibana_replica_count と同等です。
|
openshift_logging_es_allow_external
|
true に設定すると、Elasticsearch が re-encrypt ルートとして公開されます。デフォルトでは false に設定されます。
|
openshift_logging_es_hostname
|
ルートと TLS サーバーの証明書に使用する外部向けホスト名。デフォルトでは es に設定されます。
たとえば、openshift_master_default_subdomain が =example.test に設定されている場合、openshift_logging_es_hostname のデフォルト値は es.example.test になります。
|
openshift_logging_es_cert
|
Elasticsearch が外部 TLS サーバー証明書に使用する証明書の場所。デフォルトは、生成される証明書になります。
|
openshift_logging_es_key
|
Elasticsearch が外部 TLS サーバー証明書に使用するキーの場所。デフォルトは、生成されるキーになります。
|
openshift_logging_es_ca_ext
|
Elasticsearch が外部 TLS サーバーに使用する CA 証明書の場所。デフォルトは内部 CA です。
|
openshift_logging_es_ops_allow_external
|
true に設定すると、Elasticsearch が re-encrypt ルートとして公開されます。デフォルトでは false に設定されます。
|
openshift_logging_es_ops_hostname
|
ルートと TLS サーバーの証明書に使用する外部向けホスト名。デフォルトでは es-ops に設定されます。
たとえば、openshift_master_default_subdomain が =example.test に設定されている場合、openshift_logging_es_ops_hostname のデフォルト値は es-ops.example.test になります。
|
openshift_logging_es_ops_cert
|
Elasticsearch が外部 TLS サーバー証明書に使用する証明書の場所。デフォルトは、生成される証明書になります。
|
openshift_logging_es_ops_key
|
Elasticsearch が外部 TLS サーバー証明書に使用するキーの場所。デフォルトは、生成されるキーになります。
|
openshift_logging_es_ops_ca_ext
|
Elasticsearch が外部 TLS サーバーに使用する CA 証明書の場所。デフォルトは内部 CA です。
|
openshift_logging_fluentd_image
|
Fluentd のイメージバージョン。例: registry.redhat.io/openshift3/ose-logging-fluentd:v3.11
|
openshift_logging_fluentd_nodeselector
|
Fluentd インスタンスをデプロイできるターゲットのノードを指定するノードセレクター。Fluentd を実行する必要があるノード (通常はすべて) には、Fluentd が実行およびログ収集できるようになる前に、このラベルを付ける必要があります。
インストール後に Aggregated Logging クラスターを拡張する際に、openshift_logging ロールがこのノードセレクターを使用して openshift_logging_fluentd_hosts によって提供されるノードにラベルを付けます。
インストールの一環として、Fluentd ノードセレクターのラベルを永続化された ノードラベル の一覧に追加することをお勧めします。
|
openshift_logging_fluentd_cpu_limit
|
Fluentd Pod の CPU 上限。
|
openshift_logging_fluentd_memory_limit
|
Fluentd Pod のメモリー上限。
|
openshift_logging_fluentd_journal_read_from_head
|
最初の起動時に Fluentd がジャーナルの先頭から読み取る必要がある場合は、true に設定します。 これにより、現行のログレコードを受信する Elasticsearch で遅延が発生する可能性があります。
|
openshift_logging_fluentd_hosts
|
Fluentd をデプロイするためにラベルを付ける必要があるノードの一覧。デフォルトでは、全ノードに ['--all'] のラベルをつけます。null 値は openshift_logging_fluentd_hosts={} です。Fluentd Pod を起動するには、DeamonSet の nodeSelector を有効なラベルに更新します。例: ['host1.example.com', 'host2.example.com']
|
openshift_logging_fluentd_audit_container_engine
|
openshift_logging_fluentd_audit_container_engine が true に設定されている場合には、コンテナーエンジンの監査ログが収集され、ES に保存されます。この変数を有効にすると、EFK が指定の監査ログファイルか、デフォルトの /var/log/audit.log ファイルを監視することができ、プラットフォームのコンテナーエンジンに関する監査情報を収集して、Kibana に配置します。
|
openshift_logging_fluentd_audit_file
|
監査ログファイルの場所。デフォルトは /var/log/audit/audit.log です。この変数を有効にすると、EFK が指定の監査ログファイルか、デフォルトの /var/log/audit.log ファイルを監視することができ、プラットフォームのコンテナーエンジンに関する監査情報を収集して、Kibana に配置します。
|
openshift_logging_fluentd_audit_pos_file
|
監査ログファイルの Fluentd in_tail の位置ファイルが配置される場所。デフォルトは /var/log/audit/audit.log です。この変数を有効にすると、EFK が指定の監査ログファイルか、デフォルトの /var/log/audit.log ファイルを監視することができ、プラットフォームのコンテナーエンジンに関する監査情報を収集して、Kibana に配置します。
|
openshift_logging_fluentd_merge_json_log
|
レコードの ログ または MESSAGE フィールドに埋め込まれた JSON ログの処理を有効にするには true に設定します。デフォルトは true です。
|
openshift_logging_fluentd_extra_keep_fields
|
openshift_logging_fluentd_merge_json_log を使用する場合に生成される追加フィールドの処理時に変更しないフィールドのコンマ区切りリストを指定します。それ以外の場合に、Fluentd は以下の他の未定義のフィールドの設定に合わせてフィールドを処理します。デフォルトは空です。
|
openshift_logging_fluentd_keep_empty_fields
|
openshift_logging_fluentd_merge_json_log を使用する場合に空のフィールドとして保持するコンマ区切りのフィールドの一覧を指定します。デフォルトでは、Fluentd は message フィールド以外、レコードから空のフィールドを削除します。
|
openshift_logging_fluentd_replace_configmap
|
アップグレードで logging-fluentd ConfigMap を置き換えないようにするには、no に設定します。ConfigMap を上書きできるようにするには、yes に設定します。
|
openshift_logging_fluentd_use_undefined
|
openshift_logging_fluentd_merge_json_log で生成されたフィールドを openshift_logging_fluentd_undefined_name パラメーターで指定されたサブフィールドに移動するには、true に設定します。デフォルトで、Fluentd はこれらのフィールドをレコードの最上位に保持するので、Elasticsearch の競合およびスキーマエラーが生じる可能性があります。
|
openshift_logging_fluentd_undefined_name
|
openshift_logging_fluentd_use_undefined の使用時に、未定義のフィールドを移動するフィールドの名前を指定します。デフォルトは undefined です。
|
openshift_logging_fluentd_undefined_to_string
|
openshift_logging_fluentd_merge_json_log の使用時に、未定義のフィールド値を JSON 文字列表現に変換するには、true に設定します。デフォルトは false です。
|
openshift_logging_fluentd_undefined_dot_replace_char
|
openshift_logging_fluentd_merge_json_log を使用する場合に、_ などの文字を指定して、フィールド内の . 文字を置き換えます。未定義フィールドで名前に . の文字が含まれると、Elasticsearch で問題が発生します。デフォルトは UNUSED で、フィールド名の . は保持されます。
|
openshift_logging_fluentd_undefined_max_num_fields
|
openshift_logging_fluentd_merge_json_log を使用する場合に、未定義のフィールドの数に制限を指定します。ログには数百の未定義フィールドが含まれる可能性があるので Elasticsearch で問題が発生します。指定された数以上のフィールドがある場合に、フィールドは JSON ハッシュ文字列に変換され、openshift_logging_fluentd_undefined_name フィールドに保存されます。デフォルト値は -1 で、これは無制限のフィールドを意味します。
|
openshift_logging_fluentd_use_multiline_json
|
openshift_logging_fluentd_merge_json_log を使用する場合に、Fluentd のログで分割されている行を 1 行に強制的に再構築するように true に設定します。json-file ドライバーにより、Docker はログ行を 16k バイトのサイズで分割します。デフォルトは false です。
|
openshift_logging_fluentd_use_multiline_journal
|
openshift_logging_fluentd_merge_json_log を使用する場合に、Fluentd のログで分割されている行を 1 行に強制的に再構築するように true に設定します。journald ドライバーを使用して、Docker はログ行を 16k バイトのサイズに分割します。デフォルトは false です。
|
openshift_logging_es_host
|
Fluentd がログを送信する Elasticsearch サービスの名前。
|
openshift_logging_es_port
|
Fluentd がログを送信する Elasticsearch サービスのポート。
|
openshift_logging_es_ca
|
Fluentd が openshift_logging_es_host との通信に使用する CA の場所。
|
openshift_logging_es_client_cert
|
Fluentd が openshift_logging_es_host に使用するクライアント証明書の場所。
|
openshift_logging_es_client_key
|
Fluentd が openshift_logging_es_host に使用するクライアントキーの場所。
|
openshift_logging_es_cluster_size
|
デプロイする Elasticsearch ノード。高可用性には 3 つ以上が必要です。
|
openshift_logging_es_cpu_limit
|
Elasticsearch クラスターの CPU 量の上限。
|
openshift_logging_es_memory_limit
|
Elasticsearch インスタンスごとに予約する RAM 容量。512 M 以上である必要があります。使用可能な接尾辞は G、g、M、m です。
|
openshift_logging_es_number_of_replicas
|
それぞれの新規インデックスのプライマリーシャードごとのレプリカ数。デフォルトは '0' に設定されます。実稼働環境のクラスターに対しては、1 以上を設定することが推奨されます。可用性の高い環境の場合は、この値を 1 以上に設定し、3 つ以上の Elasticsearch ノードを各ホストに 1 つずつ設定します。レプリカの数を変更すると、新しい値が新しいインデックスにのみ適用されます。新しい値は既存のインデックスには適用されません。既存のインデックスのレプリカ数を変更する方法については、Elasticsearch Replicas の数の変更 を参照してください。
|
openshift_logging_es_number_of_shards
|
ES で作成される新規インデックスごとのプライマリーシャード数。デフォルトは 1 です。
|
openshift_logging_es_pv_selector
|
特定の PV を選択するために PVC に追加されるキー/値のマップ。
|
openshift_logging_es_pvc_dynamic
|
バッキングストレージを動的にプロビジョニングするには、パラメーターの値を true に設定します。true に設定される場合、storageClass 仕様が PVC 定義から省略されます。false に設定される場合、openshift_logging_es_pvc_size パラメーターの値を指定する必要があります。
openshift_logging_es_pvc_storage_class_name パラメーターの値を設定する場合、その値は openshift_logging_es_pvc_dynamic パラメーターの値を上書きします。
|
openshift_logging_es_pvc_storage_class_name
|
デフォルト以外のストレージクラスを使用するには、glusterprovisioner または cephrbdprovisioner などのストレージクラス名を指定します。ストレージクラス名を指定した後には、openshift_logging_es_pvc_dynamic の値が何であっても、動的ボリュームプロビジョニングがアクティブになります。
|
openshift_logging_es_pvc_size
|
Elasticsearch インスタンスごとに作成する Persistent Volume Claim (永続ボリューム要求、PVC) のサイズ。たとえば、100G です。省略される場合、PVC が作成されず、代わりに一時ボリュームが使用されます。このパラメーターを設定すると、ロギングインストーラーは openshift_logging_elasticsearch_storage_type を pvc に設定します。
openshift_logging_es_pvc_dynamic パラメーターが false に設定されている場合、このパラメーターの値を設定する必要があります。詳細は、openshift_logging_es_pvc_prefix の説明を参照してください。
|
openshift_logging_elasticsearch_image
|
Elasticsearch のイメージバージョン。例: registry.redhat.io/openshift3/ose-logging-elasticsearch5:v3.11
|
openshift_logging_elasticsearch_storage_type
|
Elasticsearch ストレージタイプを設定します。永続 Elasticsearch ストレージ を使用している場合、ロギングインストーラーはこれを pvc に設定します。
|
openshift_logging_es_pvc_prefix
|
Elasticsearch ノードのストレージとして使用される Persistent Volume Claim (永続ボリューム要求、PVC) の名前の接頭辞。logging-es-1 のように、ノードごとに数字が付加されます。まだ存在していない場合は、サイズ es-pvc-size を使用して作成されます。
openshift_logging_es_pvc_prefix が設定されている場合:
-
openshift_logging_es_pvc_dynamic =true であると、openshift_logging_es_pvc_size の値はオプションになります。
-
openshift_logging_es_pvc_dynamic =false であると、openshift_logging_es_pvc_size の値を設定する必要があります。
|
openshift_logging_es_recover_after_time
|
リカバリーを試みる前に Elasticsearch が待機する時間。サポート対象の時間単位は、秒 (s) または分 (m) です。
|
openshift_logging_es_storage_group
|
Elasticsearch ストレージボリュームにアクセスするための補助グループ ID の数。バッキングボリュームはこのグループ ID によるアクセスを許可する必要があります。
|
openshift_logging_es_nodeselector
|
Elasticsearch ノードをデプロイできるターゲットのノードを判断するマップとして指定されているノードセレクター。このマップは、Elasticsearch インスタンスの実行用に予約または最適化されているノードにこれらのインスタンスを配置するために使用することができます。たとえば、セレクターは {"node-role.kubernetes.io/infra":"true"} と指定できます。Elasticsearch をデプロイする前に、少なくとも 1 つのアクティブノードにこのラベルを付ける必要があります。このパラメーターは、ロギングをインストールする場合に必須です。
|
openshift_logging_es_ops_host
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_es_host と同等です。
|
openshift_logging_es_ops_port
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_es_port と同等です。
|
openshift_logging_es_ops_ca
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_es_ca と同等です。
|
openshift_logging_es_ops_client_cert
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_es_client_cert と同等です。
|
openshift_logging_es_ops_client_key
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_es_client_key と同等です。
|
openshift_logging_es_ops_cluster_size
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_es_cluster_size と同等です。
|
openshift_logging_es_ops_cpu_limit
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_es_cpu_limit と同等です。
|
openshift_logging_es_ops_memory_limit
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_es_memory_limit と同等です。
|
openshift_logging_es_ops_pv_selector
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_es_pv_selector と同等です。
|
openshift_logging_es_ops_pvc_dynamic
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_es_pvc_dynamic と同等です。
|
openshift_logging_es_ops_pvc_size
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_es_pvc_size と同等です。
|
openshift_logging_es_ops_pvc_prefix
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_es_pvc_prefix と同等です。
|
openshift_logging_es_ops_storage_group
|
openshift_logging_use_ops が true に設定されている場合は、Ops クラスターの openshift_logging_es_storage_group と同等です。
|
openshift_logging_es_ops_nodeselector
|
Elasticsearch ノードをデプロイできるターゲットのノードを指定するノードセレクター。このノードセレクターは、Elasticsearch インスタンスの実行用に予約または最適化されているノード上にこれらのインスタンスを配置するために使用できます。たとえば、セレクターは node-type=infrastructure と指定できます。Elasticsearch をデプロイする前に、少なくとも 1 つのアクティブノードにこのラベルを付ける必要があります。このパラメーターは、openshift_logging_use_ops が true に設定されている場合に必要です。
|
openshift_logging_elasticsearch_kibana_index_mode
|
デフォルト値 unique では、各ユーザーが独自の Kibana インデックスを持つことができます。このモードでは、保存されたクエリー、ビジュアライゼーション、およびダッシュボードは共有されません。
値 shared_ops を設定することもできます。このモードでは、すべての操作ユーザーが Kibana インデックスを共有します。これにより、各操作ユーザーが同じクエリー、ビジュアライゼーション、およびダッシュボードを参照することができます。 操作ユーザーであるかどうかを判別するには、以下を実行します。
#oc auth can-i view pod/logs -n default
yes
適切なアクセスがない場合は、クラスター管理者にお問い合わせください。
|
openshift_logging_elasticsearch_poll_timeout_minutes
|
Ansible Playbook が Elasticsearch クラスターが指定された Elasticsearch ノードのアップグレード後に Green の状態になるまで待機する時間を調整します。50 GB 以上の大規模なシャードは初期化までに 60 分を超える時間がかかる場合があり、これにより、Ansible Playbook がアップグレード手順を中止する可能性があります。デフォルトは 60 です。
|
openshift_logging_kibana_ops_nodeselector
|
Kibana インスタンスをデプロイできるターゲットのノードを指定するノードセレクター。
|
openshift_logging_curator_ops_nodeselector
|
Curator インスタンスをデプロイできるターゲットのノードを指定するノードセレクター。
|
openshift_logging_elasticsearch_replace_configmap
|
logging-elasticsearch ConfigMap を現在のデフォルト値に置き換えるには、true に設定します。現在の ConfigMap は logging-elasticsearch.old に保存されます。これを使用して、カスタマイズ内容を新規 ConfigMap にコピーできます。場合によっては、古い ConfigMap を使用するとアップグレードが失敗する場合があります。デフォルトは false に設定されます。
|