4.9.4. Cluster Autoscaler リソース定義


次の ClusterAutoscaler リソース定義に、Cluster Autoscaler のパラメーターとサンプル値を示します。

注記

既存の Cluster Autoscaler の設定を変更すると、Cluster Autoscaler が再起動します。

apiVersion: "autoscaling.openshift.io/v1"
kind: "ClusterAutoscaler"
metadata:
  name: "default"
spec:
  podPriorityThreshold: -10
  resourceLimits:
    maxNodesTotal: 24
    cores:
      min: 8
      max: 128
    memory:
      min: 4
      max: 256
    gpus:
    - type: <gpu_type>
      min: 0
      max: 16
  logVerbosity: 4
  scaleDown:
    enabled: true
    delayAfterAdd: 10m
    delayAfterDelete: 5m
    delayAfterFailure: 30s
    unneededTime: 5m
    utilizationThreshold: "0.4"
  scaleUp:
    newPodScaleUpDelay: "10s"
  expanders: ["Random"]
Expand
表4.1 Cluster Autoscaler パラメーター
パラメーター説明

podPriorityThreshold

Cluster Autoscaler に追加のノードをデプロイさせるために Pod が超えている必要のある優先順位を指定します。32 ビットの整数値を入力します。podPriorityThreshold 値は、各 Pod に割り当てる PriorityClass の値と比較されます。

maxNodesTotal

デプロイするノードの最大数を指定します。この値は、Autoscaler が制御するマシンだけでなく、クラスターにデプロイされるマシンの合計数です。この値は、すべてのコントロールプレーンおよびコンピュートマシン、および MachineAutoscaler リソースに指定するレプリカの合計数に対応するのに十分な大きさの値であることを確認します。

cores.min

クラスターにデプロイするコアの最小数を指定します。

cores.max

クラスターにデプロイするコアの最大数を指定します。

memory.min

クラスターのメモリーの最小量 (GiB 単位) を指定します。

memory.max

クラスターのメモリーの最大量 (GiB 単位) を指定します。

gpus.type

オプション: GPU 対応ノードをデプロイするように Cluster Autoscaler を設定するには、type 値を指定します。この値は、そのタイプの GPU 対応ノードを管理するマシンセット内の spec.template.spec.metadata.labels[cluster-api/accelerator] ラベルの値と一致する必要があります。たとえば、この値は、Nvidia T4 GPU を表す場合は nvidia-t4、A10G GPU を表す場合は nvidia-a10g になります。詳細は、「Cluster Autoscaler 用の GPU マシンセットのラベル付け」を参照してください。

gpus.min

クラスターにデプロイする指定タイプの GPU の最小数を指定します。

gpus.max

クラスターにデプロイする指定タイプの GPU の最大数を指定します。

logVerbosity

ロギングの詳細レベルを 0 から 10 の間で指定します。次のログレベルのしきい値は、ガイダンスとして提供されています。

  • 1: (デフォルト) 変更に関する基本情報。
  • 4: 一般的な問題をトラブルシューティングするためのデバッグレベルの詳細度。
  • 9: 広範なプロトコルレベルのデバッグ情報。

値を指定しない場合は、デフォルト値の 1 が使用されます。

scaleDown

このセクションでは、有効な ParseDuration 期間 ( nsusmssm、および h を含む) を使用して各アクションに、待機する期間を指定できます。

scaleDown.enabled

Cluster Autoscaler が不必要なノードを削除できるかどうかを指定します。

scaleDown.delayAfterAdd

オプション: ノードが最後に 追加 されてからノードを削除するまで待機する期間を指定します。値を指定しない場合、デフォルト値の 10m が使用されます。

scaleDown.delayAfterDelete

オプション: ノードが最後に 削除 されてからノードを削除するまで待機する期間を指定します。値を指定しない場合、デフォルト値の 0s が使用されます。

scaleDown.delayAfterFailure

オプション: スケールダウンが失敗してからノードを削除するまで待機する期間を指定します。値を指定しない場合、デフォルト値の 3m が使用されます。

scaleDown.unneededTime

オプション: 不要なノードが削除の対象となるまでの期間を指定します。値を指定しない場合、デフォルト値の 10m が使用されます。

scaleDown.utilizationThreshold

オプション: node utilization level を指定します。この使用率レベルを下回るノードは、削除の対象となります。

ノード使用率は、要求されたリソースをそのノードに割り当てられたリソースで割ったもので、"0" より大きく "1" より小さい値でなければなりません。値を指定しない場合、Cluster Autoscaler は 50% の使用率に対応するデフォルト値 "0.5" を使用します。この値は文字列として表現する必要があります。

scaleUp

このセクションでは、新たに保留中となった Pod を認識するまでの待機期間を、有効な ParseDuration 間隔 (nsusmssmh など) を使用して指定できます。

scaleUp.newPodScaleUpDelay

オプション: 新しいノードを追加する前に、スケジュール不可能な新しい Pod を無視する期間を指定します。値を指定しない場合、デフォルト値の 0s が使用されます。

expanders

オプション: クラスターオートスケーラーで使用するエクスパンダーを指定します。次の値が有効です。

  • LeastWaste : スケーリング後にアイドル CPU を最小限に抑えるマシンセットを選択します。複数のマシンセットで同じ量のアイドル CPU が生成される場合、選択によって未使用のメモリーが最小限に抑えられます。
  • Priority: ユーザーが割り当てた優先度が最も高いマシンセットを選択します。このエクスパンダーを使用するには、マシンセットの優先順位を定義する config map を作成する必要があります。詳細は、「クラスターオートスケーラーの優先度エクスパンダーの設定」を参照してください。
  • Random: (デフォルト) マシンセットをランダムに選択します。

値を指定しない場合は、デフォルト値 Random が使用されます。

[LeastWaste, Priority] 形式を使用して複数のエクスパンダーを指定できます。クラスターオートスケーラーは、指定された順序に従って各エクスパンダーを適用します。

[LeastWaste, Priority] の例では、クラスターオートスケーラーは最初に LeastWaste 基準に従って評価します。複数のマシンセットが LeastWaste 基準を同等に満たしている場合、クラスターオートスケーラーは Priority 基準に従って評価します。複数のマシンセットが指定されたエクスパンダーのすべてを同等に満たす場合、クラスターオートスケーラーはランダムに 1 つを選択して使用します。

注記

スケーリング操作の実行時に、Cluster Autoscaler は、デプロイするコアの最小および最大数、またはクラスター内のメモリー量などの ClusterAutoscaler リソース定義に設定された範囲内に残ります。ただし、Cluster Autoscaler はそれらの範囲内に留まるようクラスターの現在の値を修正しません。

Cluster Autoscaler がノードを管理しない場合でも、最小および最大の CPU、メモリー、および GPU の値は、クラスター内のすべてのノードのこれらのリソースを計算することによって決定されます。たとえば、Cluster Autoscaler がコントロールプレーンノードを管理しない場合でも、コントロールプレーンノードはクラスターのメモリーの合計に考慮されます。

Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

Red Hat ドキュメントについて

Legal Notice

Theme

© 2026 Red Hat
トップに戻る