1.3. 新機能および機能拡張
今回のリリースでは、以下のコンポーネントおよび概念に関連する拡張機能が追加されました。
1.3.1. Red Hat Enterprise Linux CoreOS (RHCOS)
1.3.1.1. RHCOS は RHEL 9.2 を使用するようになりました
RHCOS は、OpenShift Container Platform 4.14 で Red Hat Enterprise Linux (RHEL) 9.2 パッケージを使用するようになりました。これらのパッケージにより、OpenShift Container Platform インスタンスが最新の修正、機能、拡張機能、ハードウェアサポート、およびドライバーの更新を確実に受け取ることができます。この変更から除外される OpenShift Container Platform 4.12 は、ライフサイクル全体にわたって RHEL 8.6 延長更新サポート (EUS) パッケージを引き続き使用する EUS リリースです。
1.3.1.1.1. OpenShift Container Platform with RHEL 9.2 へのアップグレードに関する考慮事項
OpenShift Container Platform 4.14 では RHEL 9.2 ベースの RHCOS が使用されるため、アップグレードする前に次の点を考慮してください。
- RHEL 8.6 と RHEL 9.2 では一部のコンポーネント設定オプションとサービスが変更されている可能性があります。これは、既存のマシン設定ファイルが無効になっている可能性があることを意味します。
-
デフォルトの OpenSSH
/etc/ssh/sshd_config
サーバー設定ファイルをカスタマイズした場合は、こちらの Red Hat ナレッジベースの記事 に従ってファイルを更新する必要があります。 - RHEL 6 ベースのイメージコンテナーは RHCOS コンテナーホストではサポートされていませんが、RHEL 8 ワーカーノードではサポートされています。詳細は、Red Hat コンテナー互換性 マトリクスを参照してください。
- 一部のデバイスドライバーは非推奨になりました。詳細は、RHEL ドキュメント を参照してください。
1.3.2. インストールおよび更新
1.3.2.2. AWS でのクラスターのブートストラップ中に S3 バケットを保持するように有効化する
この更新により、AWS でのクラスターのブートストラップ中に、S3 バケットの自動削除をオプトアウトできるようになりました。このオプションは、S3 バケットの削除を阻止するセキュリティーポリシーがある場合に便利です。
1.3.2.3. NAT ゲートウェイを使用した Microsoft Azure へのクラスターのインストール (テクノロジープレビュー)
OpenShift Container Platform 4.14 では、アウトバウンドネットワーキングに NAT ゲートウェイを使用するクラスターをインストールできます。これはテクノロジープレビュー (TP) として利用できます。詳細は、追加の Azure 設定パラメーター を参照してください。
1.3.2.4. pd-balanced ディスクタイプを使用した Google Cloud Platform (GCP) へのクラスターのインストール
OpenShift Container Platform 4.14 では、pd-balanced
ディスクタイプを使用して GCP にクラスターをインストールできます。このディスクタイプはコンピュートノードでのみ使用可能であり、コントロールプレーンノードでは使用できません。詳細は、追加の GCP 設定パラメーター を参照してください。
1.3.2.5. OpenShift Container Platform 4.14 のオプション機能
OpenShift Container Platform 4.14 では、インストール中に Build
、DeploymentConfig
、ImageRegistry
、および MachineAPI
の機能を無効にすることができます。MachineAPI
機能を無効にできるのは、ユーザーがプロビジョニングしたインフラストラクチャーを使用してクラスターをインストールする場合のみです。詳細は、クラスター機能 を参照してください。
1.3.2.6. Azure AD Workload Identity を使用したクラスターのインストール
インストール中に、Azure AD Workload Identity を使用するように Microsoft Azure クラスターを設定できるようになりました。Azure AD Workload Identity を使用すると、クラスターコンポーネントはクラスターの外部で管理される短期のセキュリティー認証情報を使用します。
Azure 上の OpenShift Container Platform クラスターの短期認証情報の実装に関する詳細は、Azure AD Workload Identity を参照してください。
インストール時にこの認証情報管理ストラテジーを設定する方法については、短期認証情報を使用するように Azure クラスターを設定する を参照してください。
1.3.2.7. Microsoft Azure のユーザー定義タグが一般提供に
Microsoft Azure のユーザー定義タグは、以前は OpenShift Container Platform 4.13 でテクノロジープレビューとして導入され、現在は、OpenShift Container Platform 4.14 で一般提供が開始されました。詳細は、Azure のユーザー定義タグの設定 を参照してください。
1.3.2.8. Azure の Confidential VM (テクノロジープレビュー)
Azure にクラスターをインストールするときに、Confidential VM を有効にできます。機密コンピューティングを使用して、インストール中に仮想マシンのゲスト状態ストレージを暗号化できます。この機能は、このページの既知の問題セクションに記載されている既知の問題により、テクノロジープレビューとなっています。詳細は、Confidential VM の有効化 を参照してください。
1.3.2.9. Azure のトラステッド起動 (テクノロジープレビュー)
クラスターをテクノロジープレビューとして Azure にインストールする際に、トラステッド起動機能を有効化できます。これらの機能には、セキュアブートと仮想化された Trusted Platform Module が含まれます。詳細は、Azure 仮想マシンのトラステッド起動の有効化 を参照してください。
1.3.2.10. Google Cloud Platform のユーザー定義のラベルとタグ (テクノロジープレビュー)
Google Cloud Platform (GCP) でユーザー定義のラベルとタグを設定して、リソースをグループ化し、リソースのアクセスとコストを管理できるようになりました。ユーザー定義のラベルは、OpenShift Container Platform インストールプログラムとそのコアコンポーネントによって作成されたリソースにのみ適用できます。ユーザー定義のタグは、OpenShift Container Platform Image Registry Operator で作成されたリソースにのみ適用できます。詳細は、GCP のユーザー定義のラベルとタグの管理 を参照してください。
1.3.2.11. 制限されたネットワーク内での Microsoft Azure への OpenShift Container Platform クラスターのインストール
OpenShift Container Platform 4.14 では、インストーラーがプロビジョニングしたインフラストラクチャー (IPI) およびユーザーがプロビジョニングしたインフラストラクチャー (UPI) 用に、制限されたネットワーク内の Microsoft Azure にクラスターをインストールできます。IPI の場合、既存の Azure Virtual Network (VNet) 上にインストールリリースコンテンツの内部ミラーを作成できます。UPI の場合、独自に提供するインフラストラクチャーを使用して Microsoft Azure にクラスターをインストールできます。詳細は、制限されたネットワークでの Azure へのクラスターのインストール および user-provisioned infrastructure を使用した制限されたネットワークでの Azure へのクラスターのインストール を参照してください。
1.3.2.12. バイパスデバイスエイリアスを使用したインストールディスクの指定
インストーラーがプロビジョニングしたインフラストラクチャーを使用して、ベアメタルにクラスターをインストールする場合、バイパスデバイスエイリアス (deviceName: "/dev/disk/by-path/pci-0000:01:00.0-scsi-0:0:0:0"
など) を使用してインストールディスクを指定できるようになりました。このパラメーターは、エージェントベースのインストール中に指定することもできます。このタイプのディスクエイリアスは、再起動後も保持されます。詳細は、ベアメタル用の install-config.yaml ファイルの設定 または Agent-based インストールのルートデバイスヒントについて を参照してください。
1.3.2.13. 既存の AWS セキュリティーグループをクラスターに適用する
デフォルトでは、インストールプログラムは、セキュリティーグループを作成し、コントロールプレーンとコンピュートマシンに接続します。デフォルトのセキュリティーグループに関連付けられたルールは変更できません。
OpenShift Container Platform 4.14 では、クラスターを既存の Amazon Virtual Private Cloud (VPC) にデプロイする場合、追加の既存の AWS セキュリティーグループをコントロールプレーンとコンピュートマシンに適用できます。これらのセキュリティーグループは、クラスターのデプロイ先となる VPC に関連付ける必要があります。カスタムセキュリティーグループを適用すると、これらのマシンの受信トラフィックまたは送信トラフィックを制御する必要がある場合に、組織のセキュリティーニーズを満たすことができます。詳細は、既存の AWS セキュリティーグループのクラスターへの適用 を参照してください。
1.3.2.14. OpenShift Container Platform 4.13 から 4.14 に更新する場合に必要な管理者の承認
OpenShift Container Platform 4.14 は、非推奨の API を削除した Kubernetes 1.27 を使用します。
クラスター管理者は、クラスターを OpenShift Container Platform 4.13 から 4.14 にアップグレードする前に、手動で確認を行う必要があります。これは、OpenShift Container Platform 4.14 への更新後に、削除された API が、クラスター上で実行されている、またはクラスターと対話しているワークロード、ツール、または他のコンポーネントによって引き続き使用されている問題を防ぐ際に役立ちます。管理者は、削除が予定されている使用中の API に対するクラスターの評価を実施し、影響を受けるコンポーネントを移行して適切な新規 API バージョンを使用する必要があります。これが完了すると、管理者による承認が可能です。
すべての OpenShift Container Platform 4.13 クラスターは、OpenShift Container Platform 4.14 に更新する前に、この管理者の承認を必要とします。
詳細は、OpenShift Container Platform 4.14 への更新の準備 を参照してください。
1.3.2.15. Nutanix の 3 ノードクラスターのサポート
3 ノードクラスターのデプロイは、OpenShift Container Platform 4.14 以降の Nutanix でサポートされています。このタイプの OpenShift Container Platform クラスターは、よりリソース効率の高いクラスターです。これは、コンピュートマシンとしても機能する 3 台のコントロールプレーンマシンのみで構成されます。詳細は、Nutanix への 3 ノードクラスターのインストール を参照してください。
1.3.2.16. Confidential 仮想マシンを使用した GCP へのクラスターのインストールが一般提供に
OpenShift Container Platform 4.14 では、Confidential 仮想マシンを使用したクラスターのインストールが一般提供になりました。現在、Confidential 仮想マシンは 64 ビット ARM アーキテクチャーではサポートされていません。詳細は、Confidential VM の有効化 を参照してください。
1.3.2.17. RHOSP のルートボリュームタイプパラメーターが利用可能に
rootVolume.types
パラメーターを使用して、RHOSP で 1 つ以上のルートボリュームタイプを指定できるようになりました。このパラメーターは、コントロールプレーンとコンピュートマシンの両方で使用できます。
1.3.2.18. vSphere ノードの静的 IP アドレス
Dynamic Host Configuration Protocol (DHCP) が存在しない環境では、静的 IP アドレスを使用してブートストラップ、コントロールプレーン、およびコンピュートノードをプロビジョニングできます。
vSphere ノードの静的 IP アドレスは、テクノロジープレビューのみの機能です。テクノロジープレビュー機能は、Red Hat 製品サポートのサービスレベルアグリーメント (SLA) の対象外であり、機能的に完全ではない場合があります。Red Hat は、実稼働環境でこれらを使用することを推奨していません。テクノロジープレビューの機能は、最新の製品機能をいち早く提供して、開発段階で機能のテストを行いフィードバックを提供していただくことを目的としています。
Red Hat のテクノロジープレビュー機能のサポート範囲に関する詳細は、テクノロジープレビュー機能のサポート範囲 を参照してください。
静的 IP アドレスを持つノードを実行するようにクラスターをデプロイした後、これらの静的 IP アドレスのいずれかを使用するようにマシンをスケーリングできます。さらに、マシンセットを使用して、設定済みの静的 IP アドレスの 1 つを使用するようにマシンを設定できます。
詳細は、vSphere へのクラスターのインストール ドキュメントの「vSphere ノードの静的 IP アドレス」セクションを参照してください。
1.3.2.19. ベアメタルホスト CR の追加検証
ベアメタルホストのカスタムリソース (CR) に ValidatingWebhooks
パラメーターが含まれるようになりました。このパラメーターを使用すると、ベアメタル Operator は CR を受け入れる前に設定エラーを把握し、設定エラーを含むメッセージをユーザーに返すようになりました。
1.3.2.20. AWS Local Zones にクラスターを迅速にインストールする
OpenShift Container Platform 4.14 の場合、Amazon Web Services (AWS) にクラスターをすばやくインストールして、コンピュートノードを Local Zone の場所に拡張できます。インストール設定ファイルにゾーン名を追加すると、インストールプログラムによって、各 Local Zone で必要なリソース、ネットワーク、およびコンピュートの作成が完全に自動化されます。詳細は、AWS Local Zones へのクラスターの迅速なインストール を参照してください。
1.3.2.21. クラウド認証情報を手動で維持することで、クラスターのインストールと更新のエクスペリエンスが簡素化される
このリリースには、クラウドプロバイダー認証に手動モードで Cloud Credential Operator (CCO) を使用するクラスターのインストールおよび更新のエクスペリエンスを向上させる変更が含まれています。oc adm release extract
コマンドの次のパラメーターにより、クラウド認証情報の手動設定が簡素化されます。
--included
このパラメーターを使用して、特定のクラスター設定に必要なマニフェストのみを展開します。
クラスター機能を使用して 1 つ以上のオプションコンポーネントを無効にすると、クラスターをインストールまたは更新する前に、無効になったコンポーネントの
CredentialsRequest
CR を削除する必要がなくなります。今後のリリースでは、このパラメーターにより CCO ユーティリティー (
ccoctl
)--enable-tech-preview
パラメーターが不要になる可能性があります。--install-config
このパラメーターを使用して、クラスターをインストールするときに
install-config.yaml
ファイルの場所を指定します。install-config.yaml
ファイルを参照することにより、extract コマンドは、作成しようとしているクラスターのクラスター設定の側面を決定できます。oc
は、クラスターに接続してその設定を決定できるため、クラスターの更新中にこのパラメーターは必要ありません。この変更により、インストール先のクラウドプラットフォームを
--cloud
パラメーターで指定する必要がなくなりました。その結果、--cloud
パラメーターは OpenShift Container Platform 4.14 以降では非推奨になります。
これらのパラメーターの使用方法を理解するには、設定のインストール手順と、手動で維持された認証情報によるクラスターの更新の準備 の手順を参照してください。
1.3.2.22. 既存の RHCOS イメージテンプレートを使用して、vSphere ホストに RHCOS を迅速にインストールする
OpenShift Container Platform 4.14 には、インストーラーがプロビジョニングしたインフラストラクチャーで使用するための新しい VMware vSphere 設定パラメーター template
が含まれています。このパラメーターを使用すると、インストール設定ファイル内の既存の Red Hat Enterprise Linux CoreOS (RHCOS) イメージテンプレートまたは仮想マシンへの絶対パスを指定できるようになります。その後、インストールプログラムはイメージテンプレートまたは仮想マシンを使用して、vSphere ホストに RHCOS を迅速にインストールできます。
このインストール方法は、vSphere ホストに RHCOS イメージをアップロードする代替方法です。
template
パラメーターのパス値を設定する前に、OpenShift Container Platform リリースのデフォルトの RHCOS ブートイメージが RHCOS イメージテンプレートまたは仮想マシンのバージョンと一致していることを確認してください。そうしないと、クラスターのインストールが失敗する可能性があります。
1.3.2.23. 64-bit ARM での OpenShift Container Platform
OpenShift Container Platform 4.14 は、64 ビット ARM アーキテクチャーベースの Google Cloud Platform インストーラープロビジョニングおよびユーザーがプロビジョニングしたインフラストラクチャーでサポートされるようになりました。64 ビット ARM クラスター上で、oc mirror
CLI プラグインの切断された環境も使用できるようになりました。インスタンスの可用性やインストールに関する詳細は、各種プラットフォームのサポートされるインストール方法 を参照してください。
1.3.2.24. Microsoft Azure クラスターのカスタム RHCOS イメージの使用
デフォルトで、インストールプログラムは、コントロールプレーンおよびコンピュートマシンの起動に使用される Red Hat Enterprise Linux CoreOS (RHCOS) イメージをダウンロードしてインストールします。この機能拡張により、インストール設定ファイル (install-config.yaml
) を変更してカスタム RHCOS イメージを指定することで、デフォルトの動作をオーバーライドできるようになりました。クラスターをデプロイする前に、次のインストールパラメーターを変更できます。
-
compute.platorm.azure.osImage.publisher
-
compute.platorm.azure.osImage.offer
-
compute.platorm.azure.osImage.sku
-
compute.platorm.azure.osImage.version
-
controlPlane.platorm.azure.osImage.publisher
-
controlPlane.platorm.azure.osImage.offer
-
controlPlane.platorm.azure.osImage.sku
-
controlPlane.platorm.azure.osImage.version
-
platform.azure.defaultMachinePlatform.osImage.publisher
-
platform.azure.defaultMachinePlatform.osImage.offer
-
platform.azure.defaultMachinePlatform.osImage.sku
-
platform.azure.defaultMachinePlatform.osImage.version
これらのパラメーターの詳細は、追加の Azure 設定パラメーター を参照してください。
1.3.2.25. クラウドプロバイダーへのシングルノード OpenShift のインストール
OpenShift Container Platform 4.14 では、クラウドプロバイダーへのシングルノード OpenShift のインストールに対するサポートが拡張されています。シングルノード OpenShift のインストールオプションには、Amazon Web Services (AWS)、Google Cloud Platform (GCP)、および Microsoft Azure が含まれます。サポートされているプラットフォームの詳細は、シングルノード openshift でサポートされているクラウドプロバイダー を参照してください。
1.3.3. インストール後の設定
1.3.3.1. マルチアーキテクチャーコンピュートマシンを含む OpenShift Container Platform クラスター
マルチアーキテクチャーのコンピュートマシンを備えた OpenShift Container Platform 4.14 クラスターが、Google Cloud Platform (GCP) で Day 2 操作としてサポートされるようになりました。ベアメタルインストール上のマルチアーキテクチャーコンピュートマシンを備えた OpenShift Container Platform クラスターが一般提供されるようになりました。マルチアーキテクチャーコンピュートマシンを備えたクラスターとサポートされているプラットフォームの詳細は、 マルチアーキテクチャーコンピュートマシンを備えたクラスターについて を参照してください。
1.3.4. Web コンソール
1.3.4.1. 管理者パースペクティブ
今回のリリースにより、Web コンソールの Administrator パースペクティブに複数の更新が追加されました。これで、次のアクションを実行できるようになります。
- 正確な検索機能を使用して、リストビューまたは検索ページでリソースのリストを絞り込みます。このアクションは、類似した名前のリソースがあり、標準の検索機能では検索を絞り込めない場合に便利です。
- ツールバーの Help ボタンをクリックし、ドロップダウンリストから Share Feedback をクリックして、機能に関するフィードバックを直接提供し、バグを報告します。
- YAML エディターでツールチップを表示または非表示にします。ツールチップは保持されるため、ページに移動するたびにツールチップを変更する必要はありません。
- すべてのユーザーの Web ターミナルイメージを設定します。詳細は、Web ターミナルの設定 を参照してください。
1.3.4.1.1. 動的なプラグインの機能拡張
この更新により、カスタムメトリックダッシュボードを追加し、QueryBowser
エクステンションを使用して、クラスターの Overview ページを拡張できるようになりました。OpenShift Container Platform リリースでは、エクステンションポイントが追加されているため、さまざまなタイプのモーダルの追加、アクティブな namespace の設定、カスタムエラーページの提供、動的プラグインのプロキシータイムアウトの設定が可能です。
詳細は、OpenShift Container Platform コンソール API の 動的プラグインリファレンス および QueryBrowser
を参照してください。
1.3.4.1.2. OperatorHub でのオペレーティングシステムベースのフィルタリング
この更新により、クラスターには異種ノードが含まれる可能性があるため、OperatorHub の Operator は、ノードのオペレーティングシステムに基づいてフィルターされるようになりました。
1.3.4.1.3. Web コンソールでの特定の Operator バージョンのインストールサポート
この更新により、コンソールの OperatorHub ページで選択したチャネルに基づいて、Operator の利用可能なバージョンのリストから選択できるようになりました。さらに、利用可能な場合は、そのチャネルとバージョンのメタデータを表示できます。古いバージョンを選択する場合は、手動による承認更新ストラテジーが必要です。そうでない場合、Operator はすぐにチャネル上の最新バージョンに更新されます。
詳細は、Web コンソールでの Operator の特定バージョンのインストール を参照してください。
1.3.4.1.4. OperatorHub による AWS STS のサポート
このリリースでは、Amazon Web Services (AWS) クラスターが Security Token Service (STS) を使用している場合、OperatorHub はこれを検出します。検出すると、"Cluster in STS Mode" という通知が表示され、Operator をインストールする前に正しく実行されることを確認するための追加の指示が表示されます。Operator Installation ページも変更され、必要な ロール ARN フィールドが追加されます。詳細は、クラウドプロバイダー上の Operator のトークン認証 を参照してください。
1.3.4.2. Developer パースペクティブ
今回のリリースにより、Web コンソールの Developer パースペクティブに複数の更新が含まれるようになりました。これで、次のアクションを実行できるようになります。
- 現在のセッションで、Web ターミナルのデフォルトタイムアウト期間を変更します。詳細は、セッションの Web ターミナルタイムアウトの設定 を参照してください。
- Web コンソールの Topology ビュー、および Serverless Service List ページと Detail ページから Serverless 関数をテストして、CloudEvent または HTTP リクエストで Serverless 関数を使用できるようにします。
-
BuildConfigs
および Shipwright ビルドの最新ビルドのステータス、開始時間、期間を表示します。この情報は、Details ページでも確認できます。
1.3.4.2.1. 新しいクイックスタート
このリリースでは、Cryostat Operator のインストールや Helm チャートを使用した JBoss EAP の開始などの開発者ツールを見つけることができる新しいクイックスタートが存在します。
1.3.4.2.2. OpenShift パイプラインページの改善
OpenShift Container Platform 4.14 では、パイプライン ページで次のナビゲーションの改善が見られます。
- Git インポートフローにおける Pipelines as Code (PAC) の自動検出。
- サンプルカタログ内の Serverless 関数。
1.3.5. OpenShift CLI (oc)
1.3.5.1. oc-mirror を使用したカタログの multi-arch OCI ローカルイメージのサポート
OpenShift Container Platform 4.14 では、oc-mirror はカタログの multi-arch OCI ローカルイメージをサポートします。
OCI レイアウトは、ディスク上に保持されているイメージを識別する index.json
ファイルで構成されます。この index.json
ファイルは、任意の数の単一または multi-arch イメージを参照できます。ただし、oc-mirror は、特定の OCI レイアウトで一度に単一つのイメージのみを参照します。OCI レイアウトに格納されるイメージは、single-arch イメージ (イメージマニフェスト) または multi-arch イメージ (マニフェストリスト) のいずれかになります。
ImageSetConfiguration
に OCI イメージが保存されます。カタログの処理後、カタログコンテンツには、レイアウト内のすべてのイメージのコンテンツを表す新しいレイヤーが追加されます。ImageBuilder は、single-arch イメージと multi-arch イメージの両方のイメージ更新を処理できるように変更されています。
1.3.5.2. Web ブラウザーを使用した CLI へのログイン
OpenShift Container Platform 4.14 では、新しい oc
コマンドラインインターフェイス (CLI) フラグである --web
が、oc login
コマンドで使用できるようになりました。
この機能拡張により、Web ブラウザーを使用してログインできるようになり、コマンドラインにアクセストークンを挿入する必要がなくなりました。
詳細は、Web ブラウザーを使用した OpenShift CLI へのログイン を参照してください。
1.3.5.3. oc new-build の機能拡張
新しい oc
CLI フラグ、--import-mode
が oc new-build
コマンドに追加されました。この機能拡張により、--import-mode
フラグを Legacy
または PreserverOriginal
に設定できるようになり、単一のサブマニフェストまたはすべてのマニフェストを使用して、ビルドをトリガーできるようになります。
1.3.5.4. oc new-app の機能拡張
新しい oc
CLI フラグ、--import-mode
が、oc new-app
コマンドに追加されました。この機能拡張により、--import-mode
フラグを Legacy
または PreserverOriginal
に設定し、続いて単一のサブマニフェストまたはすべてのマニフェストを使用して、新しいアプリケーションを作成できるようになります。
詳細は、インポートモードの設定 を参照してください。
1.3.6. IBM Z と IBM LinuxONE
このリリースにより、IBM Z® および IBM® LinuxONE は OpenShift Container Platform 4.14 と互換性を持つようになりました。インストールは、z/VM または Red Hat Enterprise Linux (RHEL) Kernel-based Virtual Machine (KVM) を使用して実行できます。インストール手順は、以下のドキュメントを参照してください。
コンピュートノードは、Red Hat Enterprise Linux CoreOS (RHCOS) を実行する必要があります。
1.3.6.1. IBM Z および IBM LinuxONE の主な機能拡張
OpenShift Container Platform 4.14 以降、延長更新サポート (EUS) は IBM Z® プラットフォームに拡張されています。詳細は、OpenShift EUS の概要 を参照してください。
OpenShift Container Platform 4.14 の IBM Z® および IBM® LinuxONE リリースでは、OpenShift Container Platform のコンポーネントと概念に、改良点と新機能が追加されました。
このリリースでは、IBM Z® および IBM® LinuxONE 上で次の機能がサポートされます。
- z/VM を使用した Assisted Installer
- 単一ノードへのインストール
- Hosted Control Plane (テクノロジープレビュー)
- マルチアーキテクチャーコンピュートノード
- oc-mirror プラグイン
1.3.6.2. IBM Secure Execution
OpenShift Container Platform は、IBM Z® および IBM® LinuxONE (s390x アーキテクチャー) 上における IBM Secure Execution 用の Red Hat Enterprise Linux CoreOS (RHCOS) ノードの設定をサポートするようになりました。
インストール手順は、以下のドキュメントを参照してください。
1.3.7. IBM Power
IBM Power® は OpenShift Container Platform 4.14 と互換性を持つようになりました。インストール手順は、以下のドキュメントを参照してください。
コンピュートノードは、Red Hat Enterprise Linux CoreOS (RHCOS) を実行する必要があります。
1.3.7.1. IBM Power の主な機能拡張
OpenShift Container Platform 4.14 以降、延長更新サポート (EUS) は IBM Power® プラットフォームに拡張されています。詳細は、OpenShift EUS の概要 を参照してください。
OpenShift Container Platform 4.14 の IBM Power® リリースでは、OpenShift Container Platform コンポーネントに改良点と新機能が追加されました。
このリリースでは、IBM Power® で次の機能がサポートされます。
- IBM Power® Virtual Server Block CSI Driver Operator (テクノロジープレビュー)
- 単一ノードへのインストール
- Hosted Control Plane (テクノロジープレビュー)
- マルチアーキテクチャーコンピュートノード
- oc-mirror プラグイン
1.3.8. IBM Power、IBM Z、IBM LinuxONE サポートマトリクス
機能 | IBM Power® | IBM Z® および IBM® LinuxONE |
---|---|---|
代替の認証プロバイダー | サポート対象 | サポート対象 |
ローカルストレージ Operator を使用した自動デバイス検出 | サポート対象外 | サポート対象 |
マシンヘルスチェックによる障害のあるマシンの自動修復 | サポート対象外 | サポート対象外 |
IBM Cloud 向けクラウドコントローラーマネージャー | サポート対象 | サポート対象外 |
オーバーコミットの制御およびノード上のコンテナーの密度の管理 | サポート対象外 | サポート対象外 |
Cron ジョブ | サポート対象 | サポート対象 |
Descheduler | サポート対象 | サポート対象 |
Egress IP | サポート対象 | サポート対象 |
etcd に保存されるデータの暗号化 | サポート対象 | サポート対象 |
FIPS 暗号 | サポート対象 | サポート対象 |
Helm | サポート対象 | サポート対象 |
Horizontal Pod Autoscaling | サポート対象 | サポート対象 |
IBM Secure Execution | サポート対象外 | サポート対象 |
IBM Power® Virtual Server Block CSI Driver Operator (テクノロジープレビュー) | サポート対象 | サポート対象外 |
IBM Power® Virtual Server の installer-provisioned infrastructure の有効化 (テクノロジープレビュー) | サポート対象 | サポート対象外 |
単一ノードへのインストール | サポート対象 | サポート対象 |
IPv6 | サポート対象 | サポート対象 |
ユーザー定義プロジェクトのモニタリング | サポート対象 | サポート対象 |
マルチアーキテクチャーコンピュートノード | サポート対象 | サポート対象 |
マルチパス化 | サポート対象 | サポート対象 |
Network-Bound Disk Encryption - 外部 Tang サーバー | サポート対象 | サポート対象 |
不揮発性メモリーエクスプレスドライブ (NVMe) | サポート対象 | サポート対象外 |
oc-mirror プラグイン | サポート対象 | サポート対象 |
OpenShift CLI ( | サポート対象 | サポート対象 |
Operator API | サポート対象 | サポート対象 |
OpenShift Virtualization | サポート対象外 | サポート対象外 |
IPsec 暗号化を含む OVN-Kubernetes | サポート対象 | サポート対象 |
PodDisruptionBudget | サポート対象 | サポート対象 |
Precision Time Protocol (PTP) ハードウェア | サポート対象外 | サポート対象外 |
Red Hat OpenShift Local | サポート対象外 | サポート対象外 |
スケジューラーのプロファイル | サポート対象 | サポート対象 |
SCTP (Stream Control Transmission Protocol) | サポート対象 | サポート対象 |
複数ネットワークインターフェイスのサポート | サポート対象 | サポート対象 |
3 ノードクラスターのサポート | サポート対象 | サポート対象 |
Topology Manager | サポート対象 | サポート対象外 |
SCSI ディスク上の z/VM Emulated FBA デバイス | サポート対象外 | サポート対象 |
4k FCP ブロックデバイス | サポート対象 | サポート対象 |
機能 | IBM Power® | IBM Z® および IBM® LinuxONE |
---|---|---|
iSCSI を使用した永続ストレージ | サポート対象 [1] | サポート対象 [1] [2] |
ローカルボリュームを使用した永続ストレージ (LSO) | サポート対象 [1] | サポート対象 [1] [2] |
hostPath を使用した永続ストレージ | サポート対象 [1] | サポート対象 [1] [2] |
ファイバーチャネルを使用した永続ストレージ | サポート対象 [1] | サポート対象 [1] [2] |
Raw Block を使用した永続ストレージ | サポート対象 [1] | サポート対象 [1] [2] |
EDEV/FBA を使用する永続ストレージ | サポート対象 [1] | サポート対象 [1] [2] |
- 永続共有ストレージは、Red Hat OpenShift Data Foundation またはその他のサポートされているストレージプロトコルを使用してプロビジョニングする必要があります。
- 永続的な非共有ストレージは、iSCSI、FC などのローカルストレージを使用するか、DASD、FCP、または EDEV/FBA での LSO を使用してプロビジョニングする必要があります。
機能 | IBM Power® | IBM Z® および IBM® LinuxONE |
---|---|---|
Cluster Logging Operator | サポート対象 | サポート対象 |
Cluster Resource Override Operator | サポート対象 | サポート対象 |
Compliance Operator | サポート対象 | サポート対象 |
File Integrity Operator | サポート対象 | サポート対象 |
HyperShift Operator | テクノロジープレビュー | テクノロジープレビュー |
Local Storage Operator | サポート対象 | サポート対象 |
MetalLB Operator | サポート対象 | サポート対象 |
Network Observability Operator | サポート対象 | サポート対象 |
NFD Operator | サポート対象 | サポート対象 |
NMState Operator | サポート対象 | サポート対象 |
OpenShift Elasticsearch Operator | サポート対象 | サポート対象 |
Vertical Pod Autoscaler Operator | サポート対象 | サポート対象 |
機能 | IBM Power® | IBM Z® および IBM® LinuxONE |
---|---|---|
ブリッジ | サポート対象 | サポート対象 |
host-device | サポート対象 | サポート対象 |
IPAM | サポート対象 | サポート対象 |
IPVLAN | サポート対象 | サポート対象 |
機能 | IBM Power® | IBM Z® および IBM® LinuxONE |
---|---|---|
クローン | サポート対象 | サポート対象 |
拡張 | サポート対象 | サポート対象 |
スナップショット | サポート対象 | サポート対象 |
1.3.9. 認証および認可
1.3.9.1. SCC プリエンプション防止
このリリースでは、特定の Security Context Constraints (SCC) を使用するようワークロードに要求できるようになりました。特定の SCC を設定すると、必要な SCC が、クラスター内の別の SCC によってプリエンプトされるのを防ぐことができます。詳細は、特定の SCC を必要とするためのワークロードの設定 を参照してください。
1.3.9.2. Pod セキュリティーアドミッション特権 namespace
このリリースでは、次のシステム namespace が常に privileged
Pod セキュリティーアドミッションプロファイルに設定されます。
-
default
-
kube-public
-
kube-system
詳細は、特権付き namespace を参照してください。
1.3.9.3. 変更された namespace で、Pod のセキュリティーアドミッション同期が無効になる
このリリースでは、ユーザーがラベル同期された namespace で自動的にラベル付けされた値から Pod セキュリティーアドミッションラベルを手動で変更すると、そのラベルの同期は無効になります。ユーザーは、必要に応じて、同期を再度有効にすることができます。詳細は、Pod のセキュリティーアドミッション同期 namespace の除外 を参照してください。
1.3.9.4. AWS STS の OLM ベース Operator サポート
このリリースでは、Amazon Web Services (AWS) クラスター上の Operator Lifecycle Manager (OLM) によって管理される一部の Operator は、Security Token Service (STS) を使用して手動モードで Cloud Credential Operator (CCO) を使用できるようになります。これらの Operator は、クラスターの外部で管理される限定された権限の短期認証情報を使用して認証します。詳細は、クラウドプロバイダー上の Operator のトークン認証 を参照してください。
1.3.9.5. Authentication Operator は接続チェック中に noProxy
を受け入れる
このリリースでは、noProxy
フィールドが設定されており、クラスター全体のプロキシーなしでルートに到達できる場合、Authentication Operator はプロキシーをバイパスし、設定された Ingress ルートを通じて直接接続チェックを実行します。以前は、Authentication Operator は、noProxy
設定に関係なく、常にクラスター全体のプロキシーを介して接続チェックを実行していました。詳細は、クラスター全体のプロキシーの設定 を参照してください。
1.3.10. ネットワーク
1.3.10.1. vSphere デュアルスタッククラスター上のプライマリー IP アドレスファミリーとしての IPv6
vSphere にクラスターをインストールする際に、IPv6 をデュアルスタッククラスター上のプライマリー IP アドレスファミリーとして設定できます。新しいクラスターのインストール時にこの機能を有効にするには、マシンネットワーク、クラスターネットワーク、サービスネットワーク、API VIP、イングレス VIP の IPv4 アドレスファミリーの前に IPv6 アドレスファミリーを指定します。
- installer-provisioned infrastructure: デュアルスタックネットワーキングを使用したデプロイメント
- user-provisioned infrastructure: ネットワーク設定パラメーター
1.3.10.2. OVN-Kubernetes ネットワークプラグインに対する複数の外部ゲートウェイのサポート
OVN-Kubernetes ネットワークプラグインは、特定のワークロードに対する追加のデフォルトゲートウェイの定義をサポートします。IPv4 と IPv6 の両方のアドレスファミリーがサポートされています。各デフォルトゲートウェイは、AdminPolicyBasedExternalRoute
オブジェクトを使用して定義します。このオブジェクトでは、静的と動的の 2 種類のネクストホップを指定できます。
- 静的ネクストホップ: 外部ゲートウェイの 1 つ以上の IP アドレス
- 動的ネクストホップ: Pod を選択するための Pod と namespace セレクターの組み合わせ、および選択した Pod に以前に関連付けられたネットワークアタッチメント定義名。
定義するネクストホップは、指定する namespace セレクターによってスコープが設定されます。その後、namespace セレクターに一致する特定のワークロードに外部ゲートウェイを使用できるようになります。
詳細は、セカンダリーネットワークインターフェイスを介した外部ゲートウェイの設定 を参照してください。
1.3.10.3. Ingress Node Firewall Operator が一般提供に
Ingress Node Firewall Operator は、OpenShift Container Platform 4.12 のテクノロジープレビュー機能に指定されました。このリリースでは、Ingress Node Firewall Operator が一般提供されました。ノードレベルでファイアウォールルールを設定できるようになりました。詳細は、Ingress Node Firewall Operator を参照してください。
1.3.10.4. OVS 用の予約されていない CPU の動的使用
このリリースでは、Open vSwitch (OVS) ネットワークスタックが、予約されていない CPU を動的に使用できるようになりました。予約されていない CPU のこの動的な使用は、パフォーマンスプロファイルが適用されているマシン config プール内のノードでデフォルトで発生します。利用可能な予約されていない CPU を動的に使用することで、OVS のコンピュートリソースが最大化され、需要が高い期間のワークロードのネットワーク遅延が最小限に抑えられます。OVS は、Guaranteed
QoS Pod 内のコンテナーに割り当てられた分離された CPU を動的に使用できないままとなります。この分離により、重要なアプリケーションのワークロードの中断が回避されます。
Node Tuning Operator が、予約されていない CPU の使用をアクティブにするパフォーマンス条件を認識すると、OVN-Kubernetes が CPU 上で実行されている OVS デーモンの CPU アフィニティー調整を設定する間に数秒の遅延が発生します。この期間中に、Guaranteed
QoS Pod が開始されると、遅延スパイクが発生する可能性があります。
1.3.10.5. 複数の IP アドレスに対するデュアルスタック設定
Whereabouts IPAM CNI プラグインの以前のリリースでは、ネットワークインターフェイスごとに 1 つの IP アドレスのみを割り当てることができました。
現在、Whereabouts は、デュアルスタック IPv4/IPv6 機能をサポートするために、任意の数の IP アドレスの割り当てをサポートしています。デュアルスタック IP アドレスを動的に割り当てるための設定の作成 を参照してください。
1.3.10.6. NUMA 対応スケジューリング用 SR-IOV ネットワークトポロジーの除外
このリリースでは、SR-IOV ネットワークの Non-Uniform Memory Access (NUMA) ノードの Topology Manager に対するアドバタイズを除外できるようになりました。SR-IOV ネットワークの NUMA ノードをアドバタイズしないため、NUMA 対応の Pod スケジューリング中に、より柔軟に SR-IOV ネットワークをデプロイできます。
たとえば、シナリオによっては、単一 NUMA ノード上の Pod の CPU およびメモリーリソースを最大化することが優先されます。Topology Manager に Pod の SR-IOV ネットワークリソースの NUMA ノードに関するヒントを提供しないことで、Topology Manager は SR-IOV ネットワークリソースと Pod の CPU およびメモリーリソースを異なる NUMA ノードにデプロイできます。以前の OpenShift Container Platform リリースでは、Topology Manager はすべてのリソースを同じ NUMA ノードに配置しようとしていました。
NUMA 対応の Pod スケジューリングにおける、より柔軟な SR-IOV ネットワークデプロイメントについて、詳しくは NUMA 対応スケジューリング用 SR-IOV ネットワークトポロジーの除外 を参照してください。
1.3.10.7. HAProxy 2.6 への更新
このリリースでは、OpenShift Container Platform が HAProxy 2.6 に更新されました。
1.3.10.8. Ingress コントローラーでのサイドカーロギングによる最大長の設定のサポート
以前は、Ingress コントローラーの syslog メッセージの最大長は 1024 バイトでした。現在は、最大値を増やすことができるようになりました。詳細は、サイドカーの使用時に Ingress コントローラーによる HAProxy ログの長さの変更を許可する を参照してください。
1.3.10.9. NMstate Operator がコンソールで更新される
このリリースでは、NMstate Operator と、NodeNetworkState
(NNS)、NodeNetworkConfigurationPolicy
(NNCP)、および NodeNetworkConfigurationEnhancement
(NNCE) などのリソースに、Web コンソールからアクセスできるようになりました。Networking ページのコンソールの Administrator パースペクティブでは、NodeNetworkConfigurationPolicy ページの NNCP と NNCE に、そして NodeNetworkState ページの NNS にアクセスできます。NMState リソースの詳細と、コンソールでこれを更新する方法の詳細は、ノードネットワーク設定の更新 を参照してください。
1.3.10.10. IBM Cloud 上の IPsec に対する OVN-Kubernetes ネットワークプラグインのサポート
IPsec は、OpenShift Container Platform 4.14 のデフォルトである OVN-Kubernetes ネットワークプラグインを使用するクラスターの IBM Cloud プラットフォームでサポートされるようになりました。詳細は、IPsec 暗号化の設定 を参照してください。
1.3.10.11. 外部トラフィックの IPsec 暗号化に対する OVN-Kubernetes ネットワークプラグインのサポート (テクノロジープレビュー)
OpenShift Container Platform は、north-south トラフィック とも呼ばれる外部トラフィックの暗号化をサポートするようになりました。IPsec は、east-west トラフィック と呼ばれる Pod 間のネットワークトラフィックの暗号化を、すでにサポートしています。両方の機能を組み合わせて使用すると、OpenShift Container Platform クラスターに完全な転送中の暗号化を提供できます。これはテクノロジープレビュー機能として利用できます。
この機能を使用するには、使用するネットワークインフラストラクチャーに合わせて調整された IPsec 設定を定義する必要があります。詳細は、外部 IPsec エンドポイントの IPsec 暗号化の有効化 を参照してください。
1.3.10.12. Kubernetes NMstate のシングルスタック IPv6 サポート
このリリースでは、シングルスタック IPv6 クラスターで Kubernetes NMState Operator を使用できるようになりました。
1.3.10.13. ロードバランサーの背後にある Pod の Egress トラフィックを管理するための Egress サービスリソース (テクノロジープレビュー)
この更新により、EgressService
カスタムリソース (CR) を使用して、ロードバランサーサービスの背後にある Pod の Egress トラフィックを管理できるようになりました。これはテクノロジープレビュー機能として利用できます。
EgressService
CR を使用して、次の方法で Egress トラフィックを管理できます。
- ロードバランサーサービスの IP アドレスを、ロードバランサーサービスの背後にある Pod の Egress トラフィックの送信元 IP アドレスとして割り当てます。
- ロードバランサーの背後にある Pod の Egress トラフィックを、デフォルトノードネットワークとは異なるネットワークに割り当てます。
詳細は、egress サービスの設定 を参照してください。
1.3.10.14. MetalLB の BGPPeer リソースの VRF 仕様 (テクノロジープレビュー)
この更新により、BGPPeer
カスタムリソースで、仮想ルーティングおよび転送 (VRF) インスタンスを指定できるようになりました。MetalLB は、VRF に属するインターフェイスを通じてサービスをアドバタイズできます。これはテクノロジープレビュー機能として利用できます。詳細は、ネットワーク VRF を介したサービスの公開 を参照してください。
1.3.10.15. NMState の NodeNetworkConfigurationPolicy リソースの VRF 仕様 (テクノロジープレビュー)
この更新により、NodeNetworkConfigurationPolicy
カスタムリソースを使用して、仮想ルーティングおよび転送 (VRF) インスタンスをネットワークインターフェイスに関連付けることができます。VRF インスタンスをネットワークインターフェイスに関連付けることにより、トラフィックの分離、独立したルーティングの決定、およびネットワークリソースの論理的な分離をサポートできます。この機能は、テクノロジープレビューとしてのみ利用できます。詳細は、例: VRF インスタンスノードのネットワーク設定ポリシーを使用したネットワークインターフェイス を参照してください。
1.3.10.16. Broadcom BCM57504 のサポートが一般提供に
Broadcom BCM57504 ネットワークインターフェイスコントローラーのサポートが、SR-IOV Network Operator で利用できるようになりました。詳細は、サポートされるデバイス を参照してください。
1.3.10.17. OVN-Kubernetes はセカンダリーネットワークとして利用可能
このリリースでは、Red Hat OpenShift Networking OVN-Kubernetes ネットワークプラグインで、Pod のセカンダリーネットワークインターフェイスを設定できます。OVN-Kubernetes は、セカンダリーネットワークとして、レイヤー 2 スイッチおよび localnet スイッチトポロジーネットワークの両方をサポートします。セカンダリーネットワークとしての OVN-Kubernetes について、詳しくは OVN-Kubernetes 追加ネットワークの設定 を参照してください。
1.3.10.18. OVN-Kubernetes ベースのクラスターデプロイメントではグローバル IP 転送が無効になっています。
このリリース以降、OVN-Kubernetes ベースのクラスターデプロイメントでグローバル IP アドレス転送が無効になります。これは、ルーターとして機能するノードによる、クラスター管理者にとって望ましくない影響を防ぐためです。OVN-Kubernetes では、マネージドインターフェイスごとに転送を有効化および制限できるようになりました。
Network
リソースの gatewayConfig.ipForwarding
仕様を使用して、OVN-Kubernetes マネージドインターフェイス上のすべてのトラフィックの IP 転送を制御できます。OVN-Kubernetes に関連するすべてのトラフィックのみを転送するには、Restricted
を指定します。すべての IP トラフィックの転送を許可するには、Global
を指定します。新規インストールの場合、デフォルトは Restricted
です。4.14 にアップグレードされたクラスターはこの変更の影響を受けません。IP 転送の動作は変更されず、引き続きグローバルに有効になります。IP 転送をグローバルに有効にする方法の詳細は、 IP 転送をグローバルに有効にする を参照してください。
1.3.10.19. 管理ネットワークポリシー (テクノロジープレビュー)
管理ネットワークポリシーは、テクノロジープレビュー機能として利用できます。OVN-Kubernetes CNI プラグインを実行しているクラスターで、Network Policy V2 API に含まれる AdminNetworkPolicy
リソースと BaselineAdminNetworkPolicy
リソースを有効化できます。クラスター管理者は、namespace が作成される前に、クラスター範囲のポリシーと保護措置をクラスター全体に適用できます。ネットワーク管理者は、ユーザーが上書きできないネットワークトラフィック制御を強制することで、クラスターを保護できます。ネットワーク管理者は、必要に応じて、クラスター内のユーザーが上書きできる任意のベースラインネットワークトラフィック制御を強制できます。現在、これらの API はクラスター内トラフィックのポリシーの表現のみをサポートしています。
1.3.10.20. Pod の MAC-VLAN、IP-VLAN、および VLAN サブインターフェイスの作成
このリリースでは、コンテナー namespace 内のマスターインターフェイスに基づいて MAC-VLAN、IP-VLAN、および VLAN サブインターフェイスを作成する機能が一般提供になりました。この機能を使用すると、別のネットワークアタッチメント定義で、Pod ネットワーク設定の一部としてマスターインターフェイスを作成できます。これにより、ノードのネットワーク設定を知らなくても、このインターフェイスに基づいて VLAN、MACVLAN、または IPVLAN を作成できます。詳細は、コンテナーネットワーク namespace でのマスターインターフェイスの設定について を参照してください。
1.3.10.21. all-multicast モードのサポート
OpenShift Container Platform リリースでは、チューニング CNI プラグインを使用した all-multicast モードの設定がサポートされるようになりました。この更新により、Pod の Security Context Constraints (SCC) に NET_ADMIN
機能を付与する必要がなくなり、Pod の潜在的な脆弱性を最小限に抑えてセキュリティーが強化されます。
all-multicast モードの詳細は、all-multicast モードについて を参照してください。
1.3.10.22. TAP デバイスプラグインを使用してネットワークの柔軟性を強化する
このリリースでは、新しい Container Network Interface (CNI) ネットワークプラグインタイプである Tanzu Application Platform (TAP) デバイスプラグインが導入されています。このプラグインを使用すると、コンテナー内に TAP デバイスを作成できます。これにより、ユーザー空間プログラムがネットワークフレームを処理し、従来のネットワークインターフェイスを介する代わりに、ユーザー空間アプリケーションとの間でフレームを送受信するインターフェイスとして機能できるようになります。詳細は、TAP 追加ネットワークの設定 を参照してください。
1.3.10.23. TAP CNI プラグインを使用した、カーネルアクセスによるルートレス DPDK ワークロードの実行のサポート
OpenShift Container Platform バージョン 4.14 以降では、カーネルにトラフィックを注入する必要がある DPDK アプリケーションは、TAP CNI プラグインを利用して非特権 Pod で実行できます。詳細は、TAP CNI を使用してカーネルアクセスでルートレス DPDK ワークロードを実行する を参照してください。
1.3.10.24. Ingress コントローラーまたは Route オブジェクトを使用して特定の HTTP ヘッダーを設定または削除する
特定の HTTP リクエストおよびレスポンスヘッダーは、Ingress コントローラーを使用してグローバルに、または特定のルートに対して、設定または削除できるようになりました。次のヘッダーを設定または削除できます。
- X-Frame-Options
- X-Cache-Info
- X-XSS-Protection
- X-Source
- X-SSL-Client-Cert
- X-Target
- Content-Location
- Content-Language
詳細は、Ingress コントローラーでの HTTP 要求ヘッダーと応答ヘッダーの設定または削除 および ルートでの HTTP 要求ヘッダーと応答ヘッダーの設定または削除 を参照してください。
1.3.10.25. 追加のネットワークインターフェイス上の EgressIP が一般利用可能になる
追加のネットワークインターフェイスで EgressIP アドレスを使用することが一般的に可能になりました。この機能により、OpenShift Container Platform 管理者は、ルーティング、アドレス指定、セグメンテーション、セキュリティーポリシーなどのネットワーク側面をより高度に制御できるようになります。トラフィックのセグメント化や特殊な要件を満たすなどの目的で、ワークロードトラフィックを特定のネットワークインターフェイス経由でルーティングすることもできます。
詳細は、追加のネットワークインターフェイスで Egress IP を使用する場合の考慮事項 を参照してください。
1.3.10.26. SR-IOV ネットワークポリシーの更新中の並列ノードドレイン
この更新により、ネットワークポリシーの更新中にノードを並行してドレインするように SR-IOV Network Operator を設定できるようになります。ノードを並列にドレインするオプションにより、SR-IOV ネットワーク設定の展開が高速化されます。SriovNetworkPoolConfig
カスタムリソースを使用して、並列ノードドレインを設定し、Operator が並列ドレインできるプール内のノードの最大数を定義できます。
詳細は、SR-IOV ネットワークポリシーの更新中に並列ノードドレインを設定する を参照してください。
1.3.10.27. Open Virtual Network Infrastructure Controller が使用する IP アドレス範囲の変更
OpenShift Container Platform 4.13 リリースでは、168.254.0.0/16
IP アドレス範囲は、Open Virtual Network Infrastructure Controller がトランジットスイッチサブネットに使用する予約済み IP アドレス範囲でした。OpenShift Container Platform 4.14 の場合、Open Virtual Network Infrastructure Controller は予約済み IP アドレス範囲として 100.88.0.0/16
を使用します。100.88.0.0/16
の範囲は、接続されているネットワークと競合できません。OCPBUGS-20178 および CIDR 範囲の定義 を参照してください。
1.3.11. レジストリー
1.3.11.1. オプションの Image Registry Operator
このリリースでは、Image Registry Operator がオプションのコンポーネントになりました。この機能は、Image Registry Operator が必要ない場合に、通信環境における OpenShift Container Platform の全体的なリソースフットプリントを削減する際に役立ちます。Image Registry Operator の無効化の詳細は、クラスター機能の選択 を参照してください。
1.3.12. Storage
1.3.12.1. LVMS での OR ロジックのサポート
このリリースでは、論理ボリュームマネージャー (LVM) クラスターのカスタムリソース (CR) が、deviceSelector
設定で OR
ロジックを提供します。以前のリリースでは、デバイスパスの paths
設定の指定には、AND
ロジックのみが使用されていました。このリリースでは、OR
ロジックをサポートする optionalPaths
設定を指定することもできます。詳細は、論理ボリュームマネージャーストレージを使用した永続ストレージ の CR の例を参照してください。
1.3.12.2. LVMS での ext4 のサポート
このリリースでは、論理ボリュームマネージャー (LVM) クラスターのカスタムリソース (CR) が、deviceClasses
の下の fstype
設定を持つ ext4
ファイルシステムのサポートを提供します。デフォルトのファイルシステムは xfs
です。詳細は、論理ボリュームマネージャーストレージを使用した永続ストレージ の CR の例を参照してください。
1.3.12.3. 標準化された STS 設定ワークフロー
OpenShift Container Platform 4.14 は、AWS Elastic File Storage (EFS) Container Storage Interface (CSI) Driver Operator を使用して、Security Token Service (STS) を設定するための合理化および標準化された手順を提供します。
詳細は、Security Token Service のロール Amazon リソースネームの取得 を参照してください。
1.3.12.4. Read Write Once Pod アクセスモード (テクノロジープレビュー)
OpenShift Container Platform 4.14 では、ReadWriteOncePod (RWOP) と呼ばれる永続ボリューム (PV) および永続ボリューム要求 (PVC) の新しいアクセスモードが導入されています。これは、単一ノード上の単一 Pod でのみ使用できます。これは、シングルノード上で多数の Pod によって PV または PVC を使用できる既存の ReadWriteOnce アクセスモードと比較されます。これはテクノロジープレビュー機能として利用できます。
詳細は、アクセスモード を参照してください。
1.3.12.5. GCP Filestore ストレージ CSI Driver Operator が一般提供に
OpenShift Container Platform は、Google Compute Platform (GCP) Filestore Storage の Container Storage Interface (CSI) ドライバーを使用して永続ボリューム (PV) をプロビジョニングできます。GCP Filestore CSI Driver Operator は、OpenShift Container Platform 4.12 に導入され、テクノロジープレビュー機能としてサポートされていました。GCP Filestore CSI Driver Operator は現在、一般提供されています。詳細は、Google Compute Platform Filestore CSI Driver Operator を参照してください。
1.3.12.6. VMware vSphere の自動 CSI 移行
VMware vSphere の自動 CSI 移行機能は、in-tree オブジェクトを対応する CSI 表現に自動的に変換します。理想的には、ユーザーに対して完全に透過的である必要があります。in-tree ストレージプラグインを参照するストレージクラスは引き続き機能しますが、デフォルトのストレージクラスを CSI ストレージクラスに切り替えることを検討してください。
OpenShift Container Platform 4.14 では、vSphere の CSI 移行はあらゆる状況においてデフォルトで有効になっており、管理者によるアクションは必要ありません。
ただし、vSphere in-tree 永続ボリューム (PV) を使用していて、OpenShift Container Platform 4.12 または 4.13 から 4.14 にアップグレードする場合は、vSphere vCenter および ESXI ホストを 7.0 Update 3L または 8.0 Update 2 に更新します。更新しない場合、OpenShift Container Platform のアップグレードがブロックされます。vSphere を更新したくない場合は、管理者承認を実行して、OpenShift Container Platform のアップグレードを続行できます。ただし、管理者承認を使用すると、既知の問題が発生する可能性があります。管理者承認に進む前に、こちらの ナレッジベースの記事 をよくお読みください。
詳細は、CSI 自動移行を参照してください。
1.3.12.7. Secrets Store CSI ドライバー Operator (テクノロジープレビュー)
Secrets Store Container Storage Interface (CSI) Driver Operator である secrets-store.csi.k8s.io
を使用すると、OpenShift Container Platform がエンタープライズグレードの外部シークレットストアに保存されている複数のシークレット、キー、証明書をインラインの一時ボリュームとして Pod にマウントできます。Secrets Store CSI Driver Operator は、gRPC を使用してプロバイダーと通信し、指定された外部シークレットストアからマウントコンテンツを取得します。ボリュームがアタッチされると、その中のデータがコンテナーのファイルシステムにマウントされます。これはテクノロジープレビュー機能として利用できます。Secrets Store CSI Driver の詳細は、Secrets Store CSI Driver を参照してください。
Secrets Store CSI Driver Operator を使用して外部シークレットストアから CSI ボリュームにシークレットをマウントする方法については、外部シークレットストアを使用した機密データの Pod への提供 を参照してください。
1.3.12.8. NFS をサポートする Azure File が一般提供に
OpenShift Container Platform 4.14 は、一般提供として Network File System (NFS) を備えた Azure File Container Storage Interface (CSI) Driver Operator をサポートします。
詳細は、NFS サポート を参照してください。
1.3.13. Oracle® クラウドインフラストラクチャー
Assisted Installer またはエージェントベースのインストーラーを使用して、Oracle® Cloud Infrastructure (OCI) に OpenShift Container Platform クラスターをインストールできるようになりました。OCI に OpenShift Container Platform クラスターをインストールするには、次のインストールオプションのいずれかを選択します。
1.3.14. Operator ライフサイクル
1.3.14.1. Operator Lifecycle Manager (OLM) 1.0 (テクノロジープレビュー)
Operator Lifecycle Manager (OLM) は、最初のリリースから OpenShift Container Platform 4 に含まれています。OpenShift Container Platform 4.14 では、OLM の次世代イテレーションのためのコンポーネントがテクノロジープレビュー機能として導入されており、このフェーズでは OLM 1.0 として知られています。この更新されたフレームワークは、OLM の以前のバージョンの一部であった概念の多くを進化させ、新しい機能を追加します。
OpenShift Container Platform 4.14 の OLM 1.0 のテクノロジープレビューフェーズ中に、管理者は以下の機能を試すことができます。
- GitOps ワークフローをサポートする完全な宣言型モデル
OLM 1.0 は、次の 2 つの主要な API を通じて Operator 管理を簡素化します。
-
新しい Operator Controller コンポーネントによって
operators.operators.operatorframework.io
として提供される新しいOperator
API は、ユーザー向け API を単一のオブジェクトに統合することで、インストールされた Operator の管理を合理化します。これにより、管理者と SRE は、GitOps 原則を使用してプロセスを自動化し、望ましい状態を定義できるようになります。 -
新しい catalogd コンポーネントによって提供される
Catalog
API は、OLM 1.0 の基盤として機能し、クラスター上のクライアント用にカタログを展開して、ユーザーが Operator や Kubernetes エクステンションなどのインストール可能なコンテンツを検出できるようにします。これにより、詳細、チャネル、更新エッジなど、利用可能なすべての Operator バンドルバージョンの可視性が向上します。
詳細は、Operator Controller と Catalogd を参照してください。
-
新しい Operator Controller コンポーネントによって
- Operator 更新に対する制御の向上
- カタログの内容に対する洞察が向上したため、管理者はインストールと更新のターゲットバージョンを指定できます。これにより、管理者は Operator 更新のターゲットバージョンをより詳細に制御できるようになります。詳細は、カタログからの Operator のインストール を参照してください。
- 柔軟な Operator パッケージ形式
管理者は、ファイルベースのカタログを使用して、次のタイプのコンテンツをインストールおよび管理できます。
- 既存の OLM エクスペリエンスと同様の OLM ベースの Operator
- プレーンバンドル (任意の Kubernetes マニフェストの静的コレクション)
さらに、バンドルサイズは etcd 値のサイズ制限によって制限されなくなりました。詳細は、OLM 1.0 でのプレーンバンドルの管理 を参照してください。
OpenShift Container Platform 4.14 の場合、OLM 1.0 の文書化された手順は CLI ベースのみになります。別の方法として、管理者は、Import YAML ページや Search ページなどの通常の方法を使用して、Web コンソールで関連オブジェクトを作成および表示することもできます。ただし、既存の OperatorHub および Installed Operators ページでは、OLM 1.0 コンポーネントはまだ表示されません。
詳細は、Operator Lifecycle Manager (OLM) 1.0 について を参照してください。
1.3.15. Operator の開発
1.3.15.1. クラウドプロバイダー上の Operator のトークン認証: AWS STS
このリリースでは、Operator Lifecycle Manager (OLM) によって管理される Operator は、Security Token Service (STS) を使用する Amazon Web Services (AWS) クラスター上で実行する際のトークン認証をサポートできるようになりました。Cloud Credential Operator (CCO) は、Operator の作成者が Operator による AWS STS のサポートを有効にしている場合、特定の権限が限定された短期認証情報のプロビジョニングを半自動化するように更新されています。OLM ベースの Operator を有効化して、AWS STS で CCO ベースのワークフローをサポートする方法の詳細は、クラウドプロバイダー上の Operator のトークン認証 を参照してください。
1.3.15.2. 複数のプラットフォームをサポートする Operator プロジェクトの設定
このリリースでは、Operator の作成者は、複数のアーキテクチャーとオペレーティングシステム、または プラットフォーム をサポートするように Operator プロジェクトを設定できます。Operator の作成者は、次のアクションを実行して、複数のプラットフォームのサポートを設定できます。
- Operator がサポートするプラットフォームを指定するマニフェストリストをビルドします。
- マルチアーキテクチャーのコンピュートマシンをサポートするように Operator のノードアフィニティーを設定します。
詳細は、マルチプラットフォームサポートのための Operator プロジェクトの設定 を参照してください。
1.3.16. ビルド
- 今回の更新により、Source-to-Image (S2I) ツールが OpenShift Container Platform 4.14 で一般提供されるようになりました。S2I ツールを使用すると、ソースコードからコンテナーイメージをビルドし、アプリケーションコードをすぐにデプロイできるコンテナーイメージに変換できます。この機能により、再現可能なコンテナー化されたアプリケーション開発をサポートするプラットフォームの機能が強化されます。詳細は、Source-to-Image (S2I) ツールの使用 を参照してください。
- この更新により、Build CSI Volumes 機能が OpenShift Container Platform 4.14 で一般提供されるようになりました。
1.3.17. Machine Config Operator
1.3.17.1. レジストリー認証局の処理
Machine Config Operator は、イメージレジストリーの認証局の配布を処理するようになりました。この変更によるエンドユーザーへの影響はありません。
1.3.17.2. Prometheus で利用可能な追加のメトリクス
このリリースでは、追加のメトリクスをクエリーして、マシンとマシン config プールの状態をより詳しく監視できるようになりました。
Prometheus の使用方法に関する詳細は、利用可能なメトリクスのリストの表示 を参照してください。
1.3.17.3. オフライン Tang プロビジョニングのサポート
このリリースでは、初回起動時にアクセスできない Tang サーバーを使用し、Tang が有効化された Network-Bound Disk Encryption (NBDE) を使用して、OpenShift Container Platform クラスターをプロビジョニングできるようになりました。
詳細は、暗号化しきい値の設定 および ディスク暗号化とミラーリングの設定 を参照してください。
1.3.17.4. 証明書が Machine Config Daemon によって処理されるようになる
以前の OpenShift Container Platform バージョンでは、MCO はマシン設定ファイルから証明書を直接読み取り、処理していました。これにより、ローテーションの問題が発生し、証明書が一時停止したマシン config プールの背後でスタックされるなど、望ましくない状況が発生しました。
このリリースでは、証明書はブートストラップからマシン設定ファイルにテンプレート化されなくなりました。代わりに、これらは Ignition オブジェクトに直接置かれ、コントローラー config を使用してディスクに書き込まれ、通常のクラスター操作中に Machine Config Daemon (MCD) によって処理されます。その後、ControllerConfig
リソースを使用して、証明書を表示できるようになります。
Machine Config Controller (MCC) は、次の証明書データを保持します。
-
/etc/kubernetes/kubelet-ca.crt
-
/etc/kubernetes/static-pod-resources/configmaps/cloud-config/ca-bundle.pem
-
/etc/pki/ca-trust/source/anchors/openshift-config-user-ca-bundle.crt
MCC は、イメージレジストリー証明書とそれに関連するユーザーバンドル証明書も処理します。これは、証明書がマシン config プールのステータスにバインドされず、よりタイムリーにローテーションされることを意味します。マシン設定ファイルに保存されている以前にリストされた CA は削除され、クラスターのインストール中に見つかったテンプレート化されたファイルは存在しなくなります。これらの証明書にアクセスする方法の詳細は、証明書の表示と操作 を参照してください。
1.3.18. マシン API
1.3.18.1. Nutanix クラスターでのコントロールプレーンマシンセットのサポート
このリリースでは、Nutanix クラスターでコントロールプレーンマシンセットがサポートされています。詳細は、Control Plane Machine Set Operator のスタートガイド を参照してください。
1.3.18.2. RHOSP クラスター上のコントロールプレーンマシンセットへのサポート
このリリースでは、RHOSP 上で実行されるクラスターでコントロールプレーンマシンセットがサポートされます。
詳細は、Control Plane Machine Set Operator のスタートガイド を参照してください。
ルートボリュームのアベイラビリティーゾーンがあり、4.14 にアップグレードする RHOSP で実行されているクラスターの場合、コントロールプレーンマシンセットを有効にする前に、コントロールプレーンマシンを 1 つのサーバーグループに統合する必要があります。必要な変更を加えるには、OpenShift on OpenStack with Availability Zones: Invalid Compute ServerGroup setup during OpenShift deployment の手順に従ってください。
少なくとも 1 つのゾーンで設定されたコンピュートゾーンがあり、バージョン 4.14 にアップグレード可能な RHOSP 上で実行されているクラスターの場合、ルートボリュームも少なくとも 1 つのゾーンで設定する必要があります。この設定変更が行われない場合、クラスター用のコントロールプレーンマシンセットを生成できません。必要な変更を加えるには、関連する OpenShift on OpenStack with compute Availability Zones: Missing rootVolume availability zone の手順に従ってください。
1.3.18.3. AWS マシンの配置グループへの割り当てのサポート
このリリースにより、既存の AWS 配置グループ内にマシンをデプロイするようにマシンセットを設定できるようになりました。この機能を Elastic Fabric Adaptor (EFA) インスタンスで使用すると、指定した配置グループ内のマシンのネットワークパフォーマンスを向上させることができます。この機能は、コンピュート と コントロールプレーン のマシンセットで使用できます。
1.3.18.4. Azure Confidential VM と信頼された起動 (テクノロジープレビュー)
このリリースでは、Azure Confidential VM、トラステッド起動、またはその両方を使用するマシンをデプロイするように、マシンセットを設定できるようになりました。これらのマシンは、セキュアブートや専用の virtual Trusted Platform Module (vTPM) インスタンスなどの Unified Extensible Firmware Interface (UEFI) セキュリティー機能を使用できます。
この機能は、コンピュート と コントロールプレーン のマシンセットで使用できます。
1.3.19. ノード
1.3.19.1. 大規模クラスターの descheduler リソース制限
このリリースでは、descheduler オペランドのリソース制限が削除されました。これにより、メモリー不足エラーによって失敗することなく、多くのノードと Pod を含む大規模なクラスターに対して、descheduler を使用できるようになります。
1.3.19.2. Pod トポロジーの分散制約 matchLabelKeys パラメーターが一般提供に
Pod トポロジー分散制約を設定するための matchLabelKeys
パラメーターが、OpenShift Container Platform 4.14 で一般提供されるようになりました。以前は、TechPreviewNoUpgrade
機能セットを有効にすることで、パラメーターをテクノロジープレビュー機能として利用できました。matchLabelKeys
パラメーターは、Pod ラベルキーのリストを取得して、分散を計算する Pod を選択します。
詳細は、Pod トポロジー分散制約を使用した Pod 配置の制御 を参照してください。
1.3.19.4. Pod Disruption Budget (PDB) の正常でない Pod エビクションポリシー。
このリリースでは、Pod Disruption Budget (PDB) に対する異常な Pod エビクションポリシーの指定が、OpenShift Container Platform で一般提供され、TechPreviewNoUpgrade
featureSet から削除されました。これは、ノードドレイン中に誤動作しているアプリケーションを排除するのに役立ちます。
詳細は、異常な Pod のエビクションポリシーの指定 を参照してください。
1.3.19.5. Linux Control Groups バージョン 2 がデフォルトに
OpenShift Container Platform 4.14 以降、新規インストールではデフォルトで Control Groups バージョン 2 (cgroup v2、cgroup2、または cgroupsv2 とも呼ばれる) が使用されます。この機能拡張には、多くのバグ修正、パフォーマンスの向上、新機能との統合機能が含まれています。cgroup v1 は、初期インストール日が OpenShift Container Platform 4.14 より前の、アップグレードされたクラスターで引き続き使用されています。cgroup v1 は、node.config
オブジェクトの cgroupMode
フィールドを v1
に変更することで、引き続き使用できます。
詳細は、ノードでの Linux cgroup バージョンの設定 を参照してください。
1.3.19.6. cron ジョブのタイムゾーンの一般提供
cron ジョブスケジュールのタイムゾーンの設定が一般提供されるようになりました。タイムゾーンが指定されていない場合、Kubernetes コントローラーマネージャーは、ローカルタイムゾーンを基準にしてスケジュールを解釈します。
詳細は、cron ジョブの作成 を参照してください。
1.3.20. モニタリング
このリリースの監視スタックには、次の新機能および変更された機能が含まれています。
1.3.20.1. モニタリングスタックコンポーネントおよび依存関係の更新
このリリースでは、モニタリングスタックコンポーネントと依存関係が以下のバージョンに更新されます。
-
kube-state-metrics
to 2.9.2 -
node-exporter
to 1.6.1 -
prom-label-proxy
to 0.7.0 - Prometheus to 2.46.0
-
prometheus-operator
to 0.67.1
1.3.20.2. アラートルールの変更
Red Hat は、記録ルールまたはアラートルールの後方互換性を保証しません。
New
-
デプロイメントのロールアウトが 15 分間進行していないかどうかを監視する
KubeDeploymentRolloutStuck
アラートを追加しました。 -
ノード上のリソースの飽和状態を監視するための
NodeSystemSaturation
アラートを追加しました。 -
ノード上の systemd サービスを監視するための
NodeSystemdServiceFailed
アラートを追加しました。 -
ノード上のメジャーページフォールトを監視するための
NodeMemoryMajorPagesFaults
アラートを追加しました。 -
失敗した Prometheus サービス検出を監視するための
PrometheusSDRefreshFailure
アラートを追加しました。
-
デプロイメントのロールアウトが 15 分間進行していないかどうかを監視する
変更済み
-
apiserver
ジョブからのメトリクスのみを評価するように、KubeAggregatedAPIDown
アラートとKubeAggregatedAPIErrors
アラートを変更しました。 -
kube-state-metrics
ジョブからのメトリクスのみを評価するように、KubeCPUOvercommit
アラートを変更しました。 -
node-exporter
ジョブからのメトリクスのみを評価するように、NodeHighNumberConntrackEntriesUsed
、NodeNetworkReceiveErrs
、およびNodeNetworkTransmitErrs
アラートを変更しました。
-
削除済み
-
実行可能でない
MultipleContainersOOMKilled
アラートを削除しました。メモリー不足に陥っているノードは、他のアラートによってカバーされます。
-
実行可能でない
1.3.20.3. コアプラットフォームのメトリクスに基づいてアラートを作成する新しいオプション
管理者はこのリリースにより、コアプラットフォームのメトリクスに基づいて、新しいアラートルールを作成できます。しきい値を調整したりラベルを変更したりして、既存のプラットフォームアラートルールの設定を変更できるようになりました。openshift-monitoring
namaespace のコアプラットフォームメトリクスに基づいてクエリー式を作成することにより、新しいカスタムアラートルールを定義して追加できます。この機能は、OpenShift Container Platform 4.12 リリースではテクノロジープレビューとして含まれていましたが、現在は、OpenShift Container Platform 4.14 で一般提供されています。詳細は、コアプラットフォームモニタリングのアラートルールの管理 を参照してください。
1.3.20.4. すべての監視コンポーネントのリソース制限を指定する新しいオプション
このリリースでは、以下を含むすべての監視コンポーネントのリソース要求と制限を指定できるようになりました。
- Alertmanager
-
kube-state-metrics
-
monitoring-plugin
-
node-exporter
-
openshift-state-metrics
- Prometheus
- Prometheus アダプター
- Prometheus Operator とそのアドミッション Webhook サービス
- Telemeter クライアント
- Thanos Querier
- Thanos Ruler
OpenShift Container Platform の以前のバージョンでは、Prometheus、Alertmanager、Thanos Querier、および Thanos Ruler のオプションのみを設定できました。
1.3.20.5. node-exporter コレクターを設定するための新しいオプション
このリリースでは、追加の node-exporter
コレクターの Cluster Monitoring Operator (CMO) config map 設定をカスタマイズできます。次の node-exporter
コレクターはオプションになり、config map 設定で、それぞれを個別に有効または無効にできます。
-
ksmd
コレクター -
mountstats
コレクター -
processes
コレクター -
systemd
コレクター
さらに、netdev
および netclass
コレクターの関連コレクター設定から、ネットワークデバイスを除外できるようになりました。また、maxProcs
オプションを使用して、node-exporter を実行できるプロセスの最大数を設定できるようになりました。
1.3.20.6. 監視 Web コンソールプラグインリソースをデプロイするための新しいオプション
このリリースでは、OpenShift Container Platform Web コンソールの Observe セクションのモニタリングページが、動的プラグイン としてデプロイされます。この変更により、Cluster Monitoring Operator (CMO) が、OpenShift Container Platform Web コンソール監視プラグインリソースをデプロイするコンポーネントになりました。CMO 設定を使用して、コンソール監視プラグインリソースの次の機能を設定できるようになりました。
- ノードセレクター
- Tolerations
- トポロジー分散制約
- リソース要求
- リソース制限
1.3.21. Network Observability Operator
Network Observability Operator は、OpenShift Container Platform マイナーバージョンのリリースストリームとは独立して更新をリリースします。更新は、現在サポートされているすべての OpenShift Container Platform 4 バージョンでサポートされている単一のローリングストリームを介して使用できます。Network Observability Operator の新機能、機能拡張、バグ修正に関する情報は、Network Observability リリースノート を参照してください。
1.3.22. スケーラビリティーおよびパフォーマンス
1.3.22.1. PAO の must-gather イメージがデフォルトの must-gather イメージに追加される
このリリースでは、Performance Addon Operator (PAO) の must-gather イメージは、低遅延チューニングに関連するデバッグデータをキャプチャーするための must-gather
コマンドの引数として必要とされなくなりました。PAO must-gather イメージの機能は、イメージ引数なしで must-gather
コマンドによって使用されるデフォルトのプラグインイメージの下に置かれるようになりました。低遅延チューニングに関連するデバッグ情報の収集の詳細は、Red Hat Support 用の低遅延チューニングデバッグデータの収集 を参照してください。
1.3.22.2. Operator の must-gather イメージを使用した NUMA Resources Operator のデータの収集
このリリースでは、Operator の must-gather
イメージを使用して NUMA Resources Operator のデータを収集するように、must-gather
ツールが更新されました。NUMA Resources Operator のデバッグ情報の収集に関する詳細は、NUMA Resources Operator データの収集 を参照してください。
1.3.22.3. 各 Pod の C ステートをより詳細に制御できるようにする
このリリースでは、Pod の C ステートをより詳細に制御できるようになりました。C ステートを完全に無効にする代わりに、C ステートの最大遅延をマイクロ秒単位で指定できるようになりました。このオプションは、cpu-c-states.crio.io
アノテーションで設定できます。これは、より浅い C ステートを完全に無効にするのではなく、一部を有効にすることで、優先度の高いアプリケーションの節電を最適化するのに役立ちます。Pod の C 状態の制御に関する詳細は、優先度の高い Pod の省電力モードを無効にする を参照してください。
1.3.22.4. デュアルスタックハブクラスターからの IPv6 スポーククラスターのプロビジョニングのサポート
この更新により、デュアルスタックハブクラスターから IPv6 アドレススポーククラスターをプロビジョニングできるようになります。Zero Touch Provisioning (ZTP) 環境では、ブート ISO をホストするハブクラスター上の HTTP サーバーが、IPv4 ネットワークと IPv6 ネットワークの両方をリッスンするようになりました。プロビジョニングサービスは、ターゲットスポーククラスター上のベースボード管理コントローラー (BMC) アドレススキームもチェックし、インストールメディアに一致する URL を提供します。これらの更新により、デュアルスタックハブクラスターから、シングルスタックの IPv6 スポーククラスターをプロビジョニングできる機能が提供されます。
1.3.22.5. RHOSP クラスターのデュアルスタックネットワーキング (テクノロジープレビュー)
RHOSP 上で実行されるクラスターでデュアルスタックネットワーク設定が利用できるようになりました。これはテクノロジープレビューの機能です。インストーラーがプロビジョニングしたインフラストラクチャーにクラスターをデプロイメントするときに、デュアルスタックネットワークを設定できます。
詳細は、デュアルスタックネットワークを使用したクラスターの設定 を参照してください。
1.3.22.6. RHOSP クラスターのセキュリティーグループ管理
OpenShift Container Platform 4.14 では、RHOSP 上で実行されるクラスターのセキュリティーが強化されています。デフォルトでは、OpenStack クラウドプロバイダーは、ロードバランサーの manage-security-groups
オプションを true
に設定し、クラスターの操作に必要なノードポートのみが開かれるようにします。以前は、コンピュートプレーンマシンとコントロールプレーンマシンの両方のセキュリティーグループが、すべての受信トラフィックに対して、広範囲のノードポートを開くように設定されていました。
ロードバランサーの設定で manage-security-groups
オプションを false
に設定し、セキュリティーグループルールがノードポート範囲 30000 から 32767 までの 0.0.0.0/0
からのトラフィックを許可するようにすることで、以前の設定を使用することを選択できます。
4.14 にアップグレードされたクラスターの場合は、デプロイメントをすべてのトラフィックに開放する permissive セキュリティーグループルールを手動で削除する必要があります。たとえば、ノードポート範囲 30000 から 32767 までの 0.0.0.0/0
からのトラフィックを許可するルールを削除する必要があります。
1.3.22.7. GitOps Zero Touch Provisioning (ZTP) パイプラインでの PolicyGenTemplate CR でのカスタム CR の使用
GitOps ZTP を使用して、ztp-site-generate
コンテナーの GitOps ZTP プラグインによって提供されるベースソース CR に加えて、カスタム CR を含めることができるようになりました。詳細は、GitOps ZTP パイプラインへのカスタムコンテンツの追加 を参照してください。
1.3.22.8. GitOps ZTP のマネージドクラスターバージョンからの独立性
GitOps ZTP を使用して、OpenShift Container Platform のさまざまなバージョンを実行しているマネージドクラスターをプロビジョニングできるようになりました。これは、ハブクラスターと GitOps ZTP プラグインのバージョンが、マネージドクラスター上で実行されている OpenShift Container Platform のバージョンに依存しないことを意味します。詳細は、バージョンに依存しないように GitOps ZTP サイト設定リポジトリーを準備する を参照してください。
1.3.22.9. Topology Aware Lifecycle Manager を使用したユーザー指定のイメージの事前キャッシュ
このリリースにより、Topology Aware Lifecycle Manager を使用してシングルノード OpenShift クラスター上のアプリケーションをアップグレードする前に、アプリケーションのワークロードイメージを事前キャッシュできるようになりました。詳細は、シングルノード OpenShift クラスターでの TALM を使用したユーザー指定イメージの事前キャッシュ を参照してください。
1.3.22.10. SiteConfig および GitOps ZTP によるディスククリーニングオプション
このリリースでは、SiteConfig
CR の automaticCleaningMode
フィールドを使用して、インストール前にパーティションテーブルを削除できます。詳細は、シングルノード OpenShift SiteConfig CR インストールリファレンス を参照してください。
1.3.22.11. GitOps ZTP を介した SiteConfig CR でのカスタムノードラベルの追加へのサポート
この更新により、SiteConfig
CR に nodeLabels
フィールドを追加して、マネージドクラスター内のノードのカスタムロールを作成できるようになりました。カスタムラベルを追加する方法の詳細は、SiteConfig および GitOps ZTP を使用したマネージドクラスターのデプロイ、GitOps ZTP インストールおよび設定 CR の手動生成、および シングルノード OpenShift SiteConfig CR インストールリファレンス を参照してください。
1.3.22.12. etcd レイテンシー許容値の調整のサポート (テクノロジープレビュー)
このリリースでは、コントロールプレーンのハードウェア速度を "Standard"
、"Slower"
、またはデフォルトの ""
のいずれかに設定できます。これにより、システムが使用する速度を決定できます。これはテクノロジープレビューの機能です。詳細は、etcd のチューニングパラメーターの設定 を参照してください。
1.3.22.13. SiteConfig のフィールドの非推奨化
この更新により、SiteConfig
カスタムリソース定義 (CRD) の apiVIP
フィールドと ingressVIP
フィールドは非推奨となり、代わりに複数形の apiVIPs
と ingressVIPs
が使用されるようになりました。
1.3.23. Hosted Control Plane
1.3.23.1. ベアメタルおよび OpenShift Virtualization で Hosted Control Plane を一般提供
OpenShift Container Platform の Hosted Control Plane が、ベアメタルおよび OpenShift Virtualization プラットフォームで一般提供されるようになりました。AWS 上の Hosted Control Plane は、引き続きテクノロジープレビュー機能として提供されます。
1.3.23.2. AWS のホストされたクラスター上で ARM NodePool オブジェクトを作成する (テクノロジープレビュー)
このリリースでは、同一の Hosted Control Plane から 64 ビット ARM および AMD64 上のアプリケーションワークロードをスケジュールできます。詳細は、AWS のホストされたクラスターで ARM NodePool オブジェクトを作成する を参照してください。
1.3.23.3. IBM Z 上の Hosted Control Plane (テクノロジープレビュー)
このリリースでは、IBM Z 上で Hosted Control Plane をテクノロジープレビュー機能として使用できます。詳細は、64 ビット x84 ベアメタルで IBM Z コンピュートノード用のホスティングクラスターを設定する (テクノロジープレビュー) を参照してください。
1.3.23.4. IBM Power 上の Hosted Control Plane (テクノロジープレビュー)
このリリースでは、IBM Power 上で Hosted Control Plane をテクノロジープレビュー機能として使用できます。詳細は、IBM Power コンピュートノードの Hosted Control Plane を作成するために 64 ビット x86 OpenShift Container Platform クラスターでホスティングクラスターを設定する (テクノロジープレビュー) を参照してください。
1.3.24. Insights Operator
1.3.24.1. オンデマンドのデータ収集 (テクノロジープレビュー)
OpenShift Container Platform 4.14 では、Insights Operator がオンデマンドで収集操作を実行できるようになりました。オンデマンドでの収集操作の実行に関する詳細は、Insights Operator の収集操作の実行 を参照してください。
1.3.24.2. 個別の Pod として収集操作を実行する (テクノロジープレビュー)
OpenShift Container Platform 4.14 テクノロジープレビュークラスターでは、Insights Operator は個々の Pod で収集操作を実行します。これは、新しいオンデマンドデータ収集機能をサポートします。