1.3. 新機能および拡張機能
今回のリリースでは、以下のコンポーネントおよび概念に関連する拡張機能が追加されました。
1.3.1. Documentation
1.3.1.1. OpenShift Container Platform のスタートガイド
OpenShift Container Platform 4.10 にはスタートガイドが追加されました。OpenShift Container Platform を使い始めることで、基本的な用語を定義し、開発者および管理者向けのロールベースの次のステップを提供します。
チュートリアルは、Web コンソールおよび OpenShift CLI (oc
) インターフェイスを使用して新規ユーザーについて説明します。新規ユーザーは、スタートガイドを使用して以下のタスクを実行できます。
- プロジェクトを作成します。
- view パーミッションの付与
- Quay からのコンテナーイメージのデプロイ
- アプリケーションの検査およびスケーリング
- GitHub から Python アプリケーションのデプロイ
- Quay からデータベースへの接続
- シークレットの作成
- アプリケーションのロードと表示
詳細は、Getting Started with OpenShift Container Platformを参照してください。
1.3.2. Red Hat Enterprise Linux CoreOS (RHCOS)
1.3.2.1. ベアメタル RHCOS インストールのカスタマイズの強化
coreos-installer
ユーティリティーには、ライブ ISO イメージおよび PXE イメージから RHCOS をベアメタルにインストールする際に、より柔軟なカスタマイズを可能にする iso customize
および pxe customize
サブコマンドが含まれるようになりました。
これには、カスタムの認証局または自己署名証明書を使用する HTTPS サーバーから Ignition 設定をフェッチするようにインストールをカスタマイズする機能が含まれます。
1.3.2.2. RHCOS が RHEL 8.4 を使用するように
RHCOS は、OpenShift Container Platform 4.10 で Red Hat Enterprise Linux (RHEL) 8.4 パッケージを使用するようになりました。これらのパッケージは、NetworkManager の機能など、最新の修正、機能、拡張、および最新のハードウェアサポートとドライバーの更新を提供します。
1.3.3. インストールおよびアップグレード
1.3.3.1. AWS インストールの新規デフォルトコンポーネントタイプ
OpenShift Container Platform 4.10 インストーラーは、AWS へのインストールに新規のデフォルトコンポーネントタイプを使用します。インストールプログラムはデフォルトで以下のコンポーネントを使用します。
- コントロールプレーンとコンピュートノードの両方用の AWS EC2 M6i インスタンス (利用可能な場合)
- AWS EBS gp3 ストレージ
1.3.3.2. install-config.yaml
ファイルの API の機能強化
以前は、ユーザーがベアメタルインストーラーでプロビジョニングされたインフラストラクチャーに OpenShift Container Platform をインストールした場合、Ironic サーバーと通信するための静的 IP や vLAN などのカスタムネットワークインターフェイスを設定する場所がありませんでした。
ベアメタルのみで Day1 インストールを設定する場合、ユーザーは install-config.yaml
ファイルの API を使用して、ネットワーク設定 (networkConfig
) をカスタマイズできるようになりました。この設定は、インストールおよびプロビジョニングプロセス中に設定され、ホストごとの静的 IP の設定などの高度なオプションが含まれます。
1.3.3.3. ARM 上の OpenShift Container Platform
OpenShift Container Platform 4.10 は ARM ベースの AWS EC2 およびベアメタルプラットフォームでサポートされるようになりました。インスタンスの可用性およびインストールのドキュメントは、さまざまなプラットフォームのサポートされるインストール方法 を参照してください。
以下の機能は ARM の OpenShift Container Platform でサポートされます。
- OpenShift Cluster Monitoring
- RHEL 8 Application Streams
- OVNKube
- Elastic Block Store (EBS) for AWS
- AWS .NET アプリケーション
- ベアメタル上の NFS ストレージ
以下の Operator は ARM の OpenShift Container Platform でサポートされます。
- Node Tuning Operator
- Node Feature Discovery Operator
- Cluster Samples Operator
- Cluster Logging Operator
- Elasticsearch Operator
- Service Binding Operator
1.3.3.4. インストーラーでプロビジョニングされるインフラストラクチャーを使用した IBM Cloud へのクラスターのインストール (テクノロジープレビュー)
OpenShift Container Platform 4.10 では、テクノロジープレビューのインストーラーでプロビジョニングされるインフラストラクチャーを使用して IBM Cloud にクラスターをインストールするためのサポートが導入されました。
以下の制限は、IPI を使用する IBMCloud に適用されます。
- 既存のネットワークに IPI を使用して IBMCloud をデプロイすることはサポートされていません。
- Cloud Credential Operator (CCO) は、手動モードのみを使用できます。Mint モードまたは STS はサポートされていません。
- IBM Cloud DNS Services はサポートされていません。IBM Cloud Internet Services のインスタンスが必要です。
- プライベートデプロイまたは切断されたデプロイはサポートされていません。
詳細は、IBMCloud へのインストールの準備を参照してください。
1.3.3.5. VMware vSphere クラスターのインストールにおけるシンプロビジョニングのサポート
OpenShift Container Platform 4.10 では、インストーラーでプロビジョニングされるインフラストラクチャーを使用してクラスターをインストールする場合は、シンプロビジョニングされたディスクのサポートが導入されました。ディスクは、thin
、thick
、または eagerZeroedThick
としてプロビジョニングできます。VMware vSphere のディスクプロビジョニングモードについての詳細は、Installation configuration parameters を参照してください。
1.3.3.6. クラスターの Amazon Web Services GovCloud リージョンへのインストール
Red Hat Enterprise Linux CoreOS (RHCOS) Amazon Machine Images (AMI) が AWS GovCloud リージョンで利用可能になりました。これらの AMI の可用性は、クラスターをデプロイするためにカスタム RHCOS AMI をアップロードする必要がなくなるため、インストールプロセスが改善されます。
詳細は、AWS のクラスターの government リージョンへのインストール について参照してください。
1.3.3.7. インスタンスプロファイルのカスタム AWS IAM ロールの使用
OpenShift Container Platform 4.10 以降、クラスターを既存の IAM ロールで設定する場合、インストールプログラムはクラスターのデプロイ時に shared
タグをロールに追加しなくなりました。今回の機能拡張により、カスタム IAM ロールを使用する組織のインストールプロセスが改善されましたが、セキュリティーポリシーにより shared
タグが使用されなくなりました。
1.3.3.8. vSphere クラスターへの CSI ドライバーのインストール
vSphere で実行しているクラスターに CSI ドライバーをインストールするには、以下のコンポーネントがインストールされている必要があります。
- 仮想ハードウェアバージョン 15 以降
- vSphere バージョン 6.7 Update 3 以降
- VMware ESXi バージョン 6.7 Update 3 以降
上記よりも前のバージョンのコンポーネントは引き続きサポートされますが、非推奨です。これらのバージョンは引き続き完全にサポートされていますが、OpenShift Container Platform のバージョン 4.11 には、vSphere 仮想ハードウェアバージョン 15 以降が必要です。
クラスターが vSphere にデプロイされている場合、前述のコンポーネントが上記のバージョンよりも低い場合は、vSphere での OpenShift Container Platform 4.9 から 4.10 へのアップグレードはサポートされますが、vSphere CSI ドライバーはインストールされません。4.10 へのバグ修正およびその他のアップグレードは引き続きサポートされますが、4.11 へのアップグレードは利用できなくなります。
1.3.3.9. インストーラーでプロビジョニングされるインフラストラクチャーを使用した Alibaba Cloud へのクラスターのインストール (テクノロジープレビュー)
OpenShift Container Platform 4.10 では、テクノロジープレビューとしてインストーラーでプロビジョニングされるインフラストラクチャーを使用して Alibaba Cloud にクラスターをインストールする機能が導入されました。このタイプのインストールでは、インストールプログラムを使用して、インストールプログラムがプロビジョニングし、クラスターが管理するインフラストラクチャーにクラスターをデプロイできます。
1.3.3.10. インストーラーでプロビジョニングされるインフラストラクチャーを使用した Microsoft Azure Stack Hub へのクラスターのインストール
OpenShift Container Platform 4.10 では、インストーラーでプロビジョニングされるインフラストラクチャーを使用した Azure Stack Hub へのクラスターのインストールのサポートが導入されました。このタイプのインストールでは、インストールプログラムを使用して、インストールプログラムがプロビジョニングし、クラスターが管理するインフラストラクチャーにクラスターをデプロイできます。
OpenShift Container Platform 4.10.14 以降、premium_LRS
、standardSSD_LRS
、または standard_LRS
ディスクタイプを使用して、コントロールプレーンおよびコンピュートノードをデプロイできます。デフォルトでは、インストールプログラムは premium_LRS
ディスクタイプでコントロールプレーンとコンピュートノードをデプロイします。以前の 4.10 リリースでは、standard_LRS
ディスクタイプのみがサポートされていました。
詳細は、インストーラーでプロビジョニングされるインフラストラクチャーを使用した Azure Stack Hub へのクラスターのインストール について参照してください。
1.3.3.11. 条件の更新
OpenShift Container Platform 4.10 は、OpenShift Update Service によって提供される条件付き更新パスの使用をサポートするようになりました。条件更新パスは、識別されたリスクと、これらのリスクがクラスターに適用される条件を伝えます。Web コンソールの Administrator パースペクティブは、クラスターが既知のリスクと一致しない推奨されるアップグレードパスのみを提供します。ただし、OpenShift CLI (oc
) 4.10 以降を使用して、OpenShift Container Platform 4.10 クラスターの追加のアップグレードパスを表示できます。ドキュメントの参照など、関連するリスク情報がパスに表示されます。管理者は参照資料を確認し、サポートの実行を選択できますが、推奨されなくなったアップグレードは推奨されません。
詳細は、Conditional updates および Updating along a conditional upgrade path を参照してください。
1.3.3.12. oc-mirror CLI プラグインを使用したミラーリングの切断 (テクノロジープレビュー)
本リリースでは、oc-mirror OpenShift CLI (oc
) プラグインがテクノロジープレビューとして導入されています。oc-mirror プラグインを使用して、非接続環境のイメージをミラーリングできます。
詳細は、Mirroring images for a disconnected installation using the oc-mirror plug-in を参照してください。
1.3.3.13. OVS-DPDK を使用する RHOSP へのクラスターのインストール
これで、Data Plane Development Kit (OVS-DPDK) ネットワークを使用して Open vSwitch でコンピュートマシンを実行する Red Hat OpenStack Platform (RHOSP) にクラスターをインストールできます。これらのマシンで実行されるワークロードは、OVS-DPDK のパフォーマンスとレイテンシーの改善から利点を得ることができます。
詳細は、Installing a cluster on RHOSP that supports DPDK-connected compute machines を参照してください。
1.3.3.14. RHOSP へのインストール中にコンピューティングマシンのアフィニティーを設定する
RHOSP にクラスターをインストールするときに、コンピューティングマシンアフィニティーを選択できるようになりました。デフォルトでは、コンピュートマシンは soft-anti-affinity
サーバーポリシーでデプロイされますが、anti-affinity
または soft-affinity
ポリシーを選択することも可能です。
1.3.4. Web コンソール
1.3.4.1. Developer パースペクティブ
- この更新により、バインディング接続を確立するときに、Topology ビューでサービスバインディングコネクターの名前を指定できます。
この更新により、パイプラインワークフローの作成が強化されました。
- Import from Git パイプラインワークフローからアプリケーションをインポートするときに、ドロップダウンリストからユーザー定義のパイプラインを選択できるようになりました。
- Import from Gitワークフローを使用して作成されたパイプラインにデフォルトの Webhook が追加され、トポロジービューで選択したリソースのサイドパネルに URL が表示されます。
Tekton Config
カスタムリソースでパラメーターenable-devconsole-integration
をfalse
に設定することにより、デフォルトの Tekton Hub 統合をオプトアウトできるようになりました。Tekton Hub 統合をオプトアウトする
Tekton Config CR
の例... hub: params: - name: enable-devconsole-integration value: 'false' ...
- パイプラインビルダーには、クラスターでサポートされている Tekton Hub タスクが含まれており、サポートされていない他のすべてのタスクはリストから除外されます。
- この更新により、アプリケーションのエクスポートワークフローで、エクスポートの進行中にログのエクスポートダイアログまたはアラートが表示されるようになりました。ダイアログを使用して、エクスポートプロセスをキャンセルまたは再開できます。
- この更新により、カスタムリソースを作成することにより、新しい Helm Chart リポジトリーを開発者カタログに追加できます。新しいProject Helm Chart Repositoryを追加するには、開発者パースペクティブのクイックスタートガイドを参照してください。
- この更新により、Developer Catalog を使用して community devfiles samples にアクセスできるようになりました。
1.3.4.2. 動的プラグイン (テクノロジープレビュー)
OpenShift Container Platform 4.10 以降、OpenShift コンソールの動的プラグインを作成する機能がテクノロジープレビュー機能として利用可能になりました。この機能を使用して、以下のような複数の方法でランタイム時にインターフェイスをカスタマイズできます。
- カスタムページの追加
- パースペクティブの追加およびナビゲーションアイテムの更新
- タブおよびアクションのリソースページへの追加
動的プラグインの詳細は、動的プラグインの OpenShift Container Platform Web コンソールへの追加を参照してください。
1.3.4.3. デバッグモードでの Pod の実行
今回の更新により、Web コンソールでデバッグターミナルを表示できるようになりました。Pod に CrashLoopBackOff
状態にあるコンテナーがある場合、デバッグ Pod を起動できます。端末インターフェイスが表示され、クラッシュループコンテナーのデバッグに使用できます。
- この機能は、Pod のステータスのポップアップウィンドウからアクセスでき、Pod のステータスをクリックし、Pod 内のクラッシュループするコンテナーごとにデバッグターミナルへのリンクを提供します。
- また、Pod の詳細ページの Logs タブでこの機能にアクセスすることもできます。クラッシュループコンテナーを選択すると、デバッグターミナルのリンクがログウィンドウの上に表示されます。
さらに、Pod ステータスのポップアップウィンドウに、Pod 詳細ページの Logs タブおよび Events タブへのリンクが表示されるようになりました。
1.3.4.4. カスタマイズされたワークロード通知
今回の更新により、ユーザー設定 ページでワークロード通知をカスタマイズできるようになりました。通知 タブのユーザーワークロード通知 を使用すると、Cluster Overview ページまたはドロワーに表示されるユーザーワークロード通知を非表示にすることができます。
1.3.4.5. クォータの可視性の向上
今回の更新により、管理者以外のユーザーが Project Overview、ResourceQuotas、および API Explorer ページの AppliedClusterResourceQuota
の使用を表示し、利用可能なクラスタースコープのクォータを判別できるようになりました。さらに、AppliedClusterResourceQuota
の詳細は Search ページで確認できます。
1.3.4.6. クラスターのサポートレベル
OpenShift Container Platform では、Overview
1.3.5. IBM Z および LinuxONE
本リリースでは、IBM Z および LinuxONE は OpenShift Container Platform 4.10 と互換性があります。インストールは z/VM または RHEL KVM で実行できます。インストール手順については、以下のドキュメントを参照してください。
主な機能拡張
以下の新機能は、OpenShift Container Platform 4.10 の IBM Z および LinuxONE でサポートされます。
- Horizontal Pod Autoscaling
以下の Multus CNI プラグインがサポートされます。
- ブリッジ
- host-device
- IPAM
- IPVLAN
- コンプライアンス Operator 0.1.49
- NMState Operator
- OVN-Kubernetes IPsec 暗号化
- Vertical Pod Autoscaler Operator
サポートされる機能
以下の機能が IBM Z および LinuxONE でもサポートされるようになりました。
現時点で、以下の Operator がサポートされています。
- Cluster Logging Operator
- コンプライアンス Operator 0.1.49
- Local Storage Operator
- NFD Operator
- NMState Operator
- OpenShift Elasticsearch Operator
- Service Binding Operator
- Vertical Pod Autoscaler Operator
- etcd に保存されるデータの暗号化
- Helm
- マルチパス化
- iSCSI を使用した永続ストレージ
- ローカルボリュームを使用した永続ストレージ (Local Storage Operator)
- hostPath を使用した永続ストレージ
- ファイバーチャネルを使用した永続ストレージ
- Raw Block を使用した永続ストレージ
- OVN-Kubernetes
- 複数ネットワークインターフェイスのサポート
- 3 ノードクラスターのサポート
- SCSI ディスク上の z/VM Emulated FBA デバイス
- 4k FCP ブロックデバイス
これらの機能は、4.10 について IBM Z および LinuxONE の OpenShift Container Platform にのみ利用できます。
- IBM Z および LinuxONE で有効にされている HyperPAV (FICON 接続の ECKD ストレージの仮想マシン用)。
制約
以下の制限は、IBM Z および LinuxONE の OpenShift Container Platform に影響します。
以下の OpenShift Container Platform のテクノロジープレビュー機能はサポートされていません。
- Precision Time Protocol (PTP) ハードウェア
以下の OpenShift Container Platform 機能はサポートされていません。
- マシンヘルスチェックによる障害のあるマシンの自動修復
- CodeReady Containers (CRC)
- オーバーコミットの制御およびノード上のコンテナーの密度の管理
- CSI ボリュームのクローン作成
- CSI ボリュームスナップショット
- FIPS 暗号
- NVMe
- OpenShift Metering
- OpenShift Virtualization
- OpenShift Container Platform のデプロイメント時の Tang モードのディスク暗号化
- ワーカーノードは Red Hat Enterprise Linux CoreOS (RHCOS) を実行する必要があります。
- 永続的な共有ストレージは、OpenShift Data Foundation またはその他のサポートされているストレージプロトコルを使用して、プロビジョニングする必要があります
- 共有されていない永続ストレージは、iSCSI、FC、DASD、FCP または EDEV/FBA と共に LSO を使用するなど、ローカルストレージを使用してプロビジョニングする必要があります。
1.3.6. IBM Power
本リリースでは、IBM Power は OpenShift Container Platform 4.10 と互換性があります。インストール手順については、以下のドキュメントを参照してください。
主な機能拡張
以下の新機能は、OpenShift Container Platform 4.10 の IBM Power でサポートされます。
- Horizontal Pod Autoscaling
以下の Multus CNI プラグインがサポートされます。
- ブリッジ
- host-device
- IPAM
- IPVLAN
- コンプライアンス Operator 0.1.49
- NMState Operator
- OVN-Kubernetes IPsec 暗号化
- Vertical Pod Autoscaler Operator
サポートされる機能
以下の機能は、IBM Power でもサポートされています。
現時点で、以下の Operator がサポートされています。
- Cluster Logging Operator
- コンプライアンス Operator 0.1.49
- Local Storage Operator
- NFD Operator
- NMState Operator
- OpenShift Elasticsearch Operator
- SR-IOV Network Operator
- Service Binding Operator
- Vertical Pod Autoscaler Operator
- etcd に保存されるデータの暗号化
- Helm
- マルチパス化
- Multus SR-IOV
- NVMe
- OVN-Kubernetes
- iSCSI を使用した永続ストレージ
- ローカルボリュームを使用した永続ストレージ (Local Storage Operator)
- hostPath を使用した永続ストレージ
- ファイバーチャネルを使用した永続ストレージ
- Raw Block を使用した永続ストレージ
- 複数ネットワークインターフェイスのサポート
- Power10 のサポート
- 3 ノードクラスターのサポート
- 4K ディスクのサポート
制約
以下の制限は、OpenShift Container Platform が IBM Power に影響を与えます。
以下の OpenShift Container Platform のテクノロジープレビュー機能はサポートされていません。
- Precision Time Protocol (PTP) ハードウェア
以下の OpenShift Container Platform 機能はサポートされていません。
- マシンヘルスチェックによる障害のあるマシンの自動修復
- CodeReady Containers (CRC)
- オーバーコミットの制御およびノード上のコンテナーの密度の管理
- FIPS 暗号
- OpenShift Metering
- OpenShift Virtualization
- OpenShift Container Platform のデプロイメント時の Tang モードのディスク暗号化
- ワーカーノードは Red Hat Enterprise Linux CoreOS (RHCOS) を実行する必要があります。
- 永続ストレージは、ローカルボリュームを使用するファイルシステムタイプ、OpenShift Data Foundation、ネットワークファイルシステム (NFS)、またはコンテナーストレージインターフェイス (CSI) である必要があります。
1.3.7. セキュリティーおよびコンプライアンス
セキュリティーおよびコンプライアンスコンポーネントの新機能、拡張機能、およびバグ修正に関する情報は、Compliance Operator および File Integrity Operator のリリースノートに記載されています。
セキュリティーおよびコンプライアンスについての詳細は、OpenShift Container Platform セキュリティーおよびコンプライアンスを参照してください。
1.3.8. ネットワーク
1.3.8.1. デュアルスタックサービスでは、ipFamilyPolicy を指定する必要があります。
複数の IP アドレスファミリーを使用するサービスを作成する場合、Service オブジェクト定義で ipFamilyPolicy: PreferDualStack
または ipFamilyPolicy: RequireDualStack
を明示的に指定する必要があります。この変更により、OpenShift Container Platform の以前のリリースとの後方互換性が失われます。
詳細は、BZ#2045576 を参照してください。
1.3.8.2. クラスターのインストール後のクラスターネットワーク MTU の変更
クラスターのインストール後に、OpenShift SDN クラスターネットワークプロバイダーまたは OVN-Kubernetes クラスターネットワークプロバイダーを使用している場合、ハードウェア MTU およびクラスターネットワーク MTU 値を変更できます。クラスター全体で MTU を変更すると、混乱が生じ、各ノードが数回再起動される必要があります。詳細は、クラスターネットワーク MTU の変更を参照してください。
1.3.8.3. ゲートウェイ設定の OVN-Kubernetes サポート
OVN-Kubernetes CNI ネットワークプロバイダーは、egress トラフィックがノードゲートウェイに送信される方法の設定についてサポートを追加します。デフォルトでは、egress トラフィックは OVN で処理され、クラスターを終了するために処理され、トラフィックはカーネルルーティングテーブルの特殊なルートによる影響を受けません。
今回の機能拡張により、gatewayConfig.routingViaHost
フィールドが追加されました。今回の更新により、このフィールドをインストール後のアクティビティーとしてランタイム時に設定でき、これが true
に設定される場合、egress トラフィックは Pod からホストネットワークスタックに送信されます。今回の更新では、カーネルルーティングテーブルで手動で設定されたルートに依存する非常に特殊なインストールおよびアプリケーションが得られます。
今回の機能拡張により、Open vSwitch ハードウェアオフロード機能との対話が可能になりました。今回の更新により、gatewayConfig.routingViaHost
フィールドが true
に設定されている場合、egress トラフィックがホストネットワークスタックによって処理されるため、オフロードのパフォーマンス上の利点は受けられなくなりました。
Egress トラフィックを設定するには、gatewayConfig.routingViaHost
を使用し、gateway-mode-config
config map を openshift-network-operator
namespace で設定している場合は削除します。Gateway-mode-config
ソリューションと OpenShift Container Platform 4.10 以降での OVN-Kubernetes ゲートウェイモードの設定の詳細は、ソリューション を参照してください。
設定についての詳細は、OVN-Kubernetes CNI クラスターネットワークプロバイダーの設定 を 参照してください。
1.3.8.4. ネットワークメトリックの強化
以下のメトリックがクラスターで利用可能になりました。sdn_controller
で始まるメトリック名は OpenShift SDN CNI ネットワークプロバイダーに固有のものです。ovn
で始まるメトリック名は OVN-Kubernetes CNI ネットワークプロバイダーに固有のものです。
-
network_attachment_definition_instances{networks="egress-router"}
-
openshift_unidle_events_total
-
ovn_controller_bfd_run
-
ovn_controller_ct_zone_commit
-
ovn_controller_flow_generation
-
ovn_controller_flow_installation
-
ovn_controller_if_status_mgr
-
ovn_controller_if_status_mgr_run
-
ovn_controller_if_status_mgr_update
-
ovn_controller_integration_bridge_openflow_total
-
ovn_controller_ofctrl_seqno_run
-
ovn_controller_patch_run
-
ovn_controller_pinctrl_run
-
ovnkube_master_ipsec_enabled
-
ovnkube_master_num_egress_firewall_rules
-
ovnkube_master_num_egress_firewalls
-
ovnkube_master_num_egress_ips
-
ovnkube_master_pod_first_seen_lsp_created_duration_seconds
-
ovnkube_master_pod_lsp_created_port_binding_duration_seconds
-
ovnkube_master_pod_port_binding_chassis_port_binding_up_duration_seconds
-
ovnkube_master_pod_port_binding_port_binding_chassis_duration_seconds
-
sdn_controller_num_egress_firewall_rules
-
sdn_controller_num_egress_firewalls
-
sdn_controller_num_egress_ips
ovnkube_master_resource_update_total
メトリックは 4.10 リリースに対して削除されます。
1.3.8.5. YAML ビューと Web コンソールフォームの切り替え
- 以前のバージョンでは、Web コンソールで YAML ビューと フォームビュー を切り替える際に変更は保持されませんでした。さらに、YAML ビュー に切り替えた後、フォームビュー に戻ることができませんでした。今回の更新により、変更を失うことなく、Web コンソールの YAML ビュー と フォームビュー を簡単に切り替えできるようになりました。
1.3.8.6. ネットワークポリシーでターゲットとする Pod のリスト表示
OpenShift Container Platform Web コンソールでネットワークポリシー機能を使用する場合、ポリシーの影響を受ける Pod がリスト表示されます。これらのポリシーセクションで組み合わせた namespace および Pod セレクターの変更時に、このリストが変更されます。
- ピア定義
- ルール定義
- Ingress
- Egress
影響を受ける Pod のリストには、ユーザーがアクセス可能な Pod のみが含まれます。
1.3.8.7. ネットワークトレースを単純化するための must-gather の拡張機能
oc adm must-gather
コマンドは、ネットワークパケットのキャプチャーの収集を単純化する方法で強化されています。
以前のバージョンでは、oc adm must-gather
は単一のデバッグ Pod のみを起動することができました。今回の機能拡張により、デバッグ Pod を同時に複数のノードで起動できるようになりました。
この機能拡張を使用すると、ネットワーク通信問題のトラブルシューティングを単純化するために、複数のノードでパケットキャプチャーを同時に実行できます。新しい --node-selector
引数は、パケットキャプチャーを収集するノードを特定する方法を提供します。
詳細は、Network trace methods および Collecting a host network trace を参照してください。
1.3.8.8. セカンダリーネットワークの Pod レベルボンディング
Pod レベルでのボンディングは、高可用性とスループットを必要とする Pod 内のワークロードを有効にするために不可欠です。Pod レベルのボンディングでは、カーネルモードインターフェイスで複数の Single Root I/O Virtualization (SR-IOV) 仮想機能インターフェイスからボンドインターフェイスを作成できます。SR-IOV Virtual Function は Pod に渡され、カーネルドライバーに割り当てられます。
Pod レベルのボンディングが必要なシナリオには、異なる Physical Function 上の複数の SR-IOV Virtual Function からのボンディングインターフェイスの作成が含まれます。ホストの 2 つの異なる Physical Function からボンディングインターフェイスを作成して、Pod レベルで高可用性を実現するために使用できます。
1.3.8.9. パブリッククラウドにインストールされているクラスターの egress IP アドレスのサポート
クラスター管理者は、1 つ以上の egress IP アドレスを namespace に関連付けることができます。egress IP アドレスにより、一貫性のあるソース IP アドレスが、クラスターから出る特定の namespace からのトラフィックに関連付けられます。
OVN-Kubernetes および OpenShift SDN クラスターネットワークプロバイダーの場合、以下のパブリッククラウドプロバイダーで egress IP アドレスを設定できます。
- Amazon Web Services (AWS)
- Google Cloud Platform (GCP)
- Microsoft Azure
詳細は、クラスターネットワークプロバイダーについての該当するドキュメントを参照してください。
1.3.8.10. egress ポリシーおよび ipBlock except の OpenShift SDN クラスターネットワークプロバイダーネットワークポリシーのサポート
OpenShift SDN クラスターネットワークプロバイダーを使用する場合、ipBlock
および ipBlock.except
を使用して、ネットワークポリシーで egress ルールを使用できるようになりました。NetworkPolicy
オブジェクトの egress
配列で egress ポリシーを定義します。
詳細は、ネットワークポリシーについて を参照してください。
1.3.8.11. Ingress コントローラーのルーター圧縮
今回の機能拡張により、特定の MIME タイプについて HAProxy Ingress コントローラーでグローバル HTTP トラフィック圧縮を設定する機能が追加されました。今回の更新により、大量の圧縮ルーティングされたトラフィックが大量にある場合に、ingress ワークロードの gzip 圧縮が可能になりました。
詳細は、Using router compression を参照してください。
1.3.8.12. CoreDNS のカスタマイズのサポート
クラスター管理者は、デフォルトドメインの設定済みのサーバーを使用した DNS 名前解決を許可するように DNS サーバーを設定できるようになりました。DNS 転送設定には、/etc/resolv.conf
ファイルおよびアップストリーム DNS サーバーで指定されたデフォルトのサーバーの両方を設定できます。
詳細は、DNS 転送の使用 を参照してください。
1.3.8.13. CoreDNS ログレベルと Operator ログレベルのサポート
この機能拡張により、Operator のログレベルを個別にまたはクラスター全体で手動で変更する機能が追加されます。
詳細は、Setting the CoreDNS log level を参照してください。
1.3.8.14. Ingress コントローラーでの syslog メッセージの最大長の設定のサポート
Ingress コントローラーの syslog メッセージの最大長を 480 から 4096 バイト間の任意の値に設定できるようになりました。
詳細は、Ingress Controller configuration parameters を参照してください。
1.3.8.15. CoreDNS 転送ポリシーの設定
DNS Operator を使用して CoreDNS 転送ポリシーを設定できるようになりました。デフォルト値は Random
で、値を RoundRobin
または Sequential
に設定できます。
詳細は、DNS 転送の使用 を参照してください。
1.3.8.16. SR-IOV に対する Open vSwitch ハードウェアオフロードのサポート
Open vSwitch ハードウェアオフロードを設定して、互換性のあるベアメタルノードでデータ処理のパフォーマンスを向上できるようになりました。ハードウェアオフロードは、CPU からデータ処理タスクを削除し、ネットワークインターフェイスコントローラーの専用のデータ処理ユニットに転送するデータを処理する方法です。この機能の利点として、データ処理の高速化、CPU ワークロードの軽減、コンピューティングコストの削減などがあります。
詳細は、ハードウェアオフロードの設定を参照してください。
1.3.8.17. Red Hat 外部 DNS オペレーターを使用した DNS レコードの作成 (テクノロジープレビュー)
AWS、Azure、および GCP などのクラウドプロバイダーの Red Hat 外部 DNS Operator を使用して DNS レコードを作成できるようになりました。OperatorHub を使用して外部 DNS Operator をインストールできます。パラメーターを使用して、必要に応じて ExternalDNS
を設定できます。
詳細は、Understanding the External DNS Operator を参照してください。
1.3.8.18. Mutable Ingress Controller エンドポイント公開戦略の強化
クラスター管理者は、OpenShift Container Platform の Internal
と Extrenal
の間でロードバランサースコープを変更するように Ingress Controller エンドポイントパブリッシング戦略を設定できるようになりました。
詳細は、Ingress Controller エンドポイント公開戦略を参照してください。
1.3.8.19. RHOSP でのクラスターの OVS ハードウェアオフロード (テクノロジープレビュー)
Red Hat Open Stack Platform (RHOSP) で実行されるクラスターの場合、Open vSwitch (OVS) ハードウェアオフロードを有効にできます。
詳細は、OVS ハードウェアオフロードの有効化を参照してください。
1.3.8.20. Kuryr によって作成された RHOSP リソースの削減
RHOSP で実行されるクラスターの場合、Kuryr は、Pod ネットワーク上に少なくとも 1 つの Pod を持つ名前空間の Neutron ネットワークとサブネットのみを作成するようになりました。さらに、名前空間内のプールは、Pod ネットワーク上の少なくとも 1 つの Pod が名前空間内に作成された後に作成されます。
1.3.8.21. RHOSP DCN (テクノロジープレビュー) のサポート
これで、分散コンピュートノード (DCN) 設定を使用する Red Hat Open Stack Platform (RHOSP) デプロイメントにクラスターをデプロイできます。このデプロイメント設定には、いくつかの制限があります。
- RHOSP バージョン 16 のみがサポートされています。
- RHOSP 16.1.4 の場合、ハイパーコンバージドインフラストラクチャー (HCI) と Ceph テクノロジーのみがエッジでサポートされます。
- RHOSP 16.2 では、非 HCI および Ceph テクノロジーもサポートされています。
- ネットワークは、テナントネットワークまたはプロバイダーネットワークとして事前に作成する必要があります (独自のネットワークを持参)。これらのネットワークは、適切なアベイラビリティーゾーンでスケジュールする必要があります。
1.3.8.22. RHOSP (テクノロジープレビュー) でのクラスターの外部クラウドプロバイダーのサポート
RHOSP で実行されるクラスターは、Cloud Provider Open Stack を使用できるようになりました。この機能は、TechPreviewNoUpgrade
機能セットの一部として利用できます。
1.3.8.23. インストーラーでプロビジョニングされるクラスターでの NMState を使用したホストネットワークインターフェイスの設定
OpenShift Container Platform は、インストーラーでプロビジョニングされるクラスターの networkConfig
設定を提供するようになりました。インストーラーでプロビジョニングされるインストールでは、networkConfig
設定と NMState YAML 設定を install-config.yaml
ファイルに追加します。さらに、Bare Metal Operator を使用する際に、networkConfig
設定および NMState YAML 設定をベアメタルホストリソースに追加できます。
networkConfig
設定で最もよく使われるユースケースは、インストール時またはクラスターを拡張する間にホストのネットワークインターフェイスに静的 IP アドレスを設定することです。
詳細は、install-config.yaml ファイルでのホストネットワークインターフェイスの設定について参照してください。
1.3.8.24. linuxptp サービスへの境界クロックおよび PTP 機能拡張
PtpConfig
プロファイルで複数のネットワークインターフェイスを指定できるようになり、RAN vDU アプリケーションを実行しているノードが Precision Time Protocol Telecom Boundary Clock (PTP T-BC) として機能するノードに対応できるようになりました。境界クロックとして設定されるインターフェイスが PTP 高速イベントに対応するようになりました。
詳細は、Configuring linuxptp services as boundary clock を参照してください。
1.3.8.25. Intel 800-Series Columbiaville NIC のサポート
Intel 800-Series Columbiaville NIC が、境界クロックまたは通常のクロックとして設定されるインターフェイスに対して完全にサポートされるようになりました。Columbiaville NIC は、以下の設定でサポートされています。
- 通常のクロック
- Grandmaster クロックに同期した境界クロック
- 帯域クロックと、アップストリームのソースクロックから同期する 1 つのポート、および宛先クロックにダウンストリームのタイミングを提供する 3 つのポート。
詳細は、PTP デバイスの設定を参照してください。
1.3.8.26. Kubernetes NMState Operator は、ベアメタル、IBM Power、IBM Z、および LinuxONE インストール向けの GA です。
OpenShift Container Platform は、ベアメタル、IBM Power、IBM Z、および LinuxONE インストールの Kubernetes NMState Operator を提供するようになりました。Kubernetes NMState Operator は依然として、他のすべてのプラットフォームでのテクノロジープレビューです。詳細は、Kubernetes NMState 演算子についてをご覧ください。
1.3.8.27. Mellanox MT2892 カードの SR-IOV サポート
Mellanox MT2892 カード で SR-IOV サポートが利用できるようになりました。
1.3.8.28. ネットワークトラフィックフローを監視する Network Observability Operator
管理者は、Network Observability Operator をインストールして、コンソールで OpenShift Container Platform クラスターのネットワークトラフィックを監視できるようになりました。さまざまなグラフィック表現でネットワークトラフィックデータを表示および監視できます。Network Observability Operator は、eBPF テクノロジーを使用してネットワークフローを作成します。その後、ネットワークフローは OpenShift Container Platform 情報で強化され、Loki に保存されます。ネットワークトラフィック情報を使用して、詳細なトラブルシューティングと分析を行うことができます。
Network Observability Operator は、OpenShift Container Platform の 4.12 リリースで一般公開 (GA) ステータスとなり、OpenShift Container Platform 4.10 でもサポートされています。
詳細は、Network Observability を参照してください。
1.3.8.28.1. ネットワーク可観測性 Operator の更新
Network Observability Operator は、OpenShift Container Platform マイナーバージョンのリリースストリームとは独立して更新をリリースします。更新は、現在サポートされているすべての OpenShift Container Platform 4 バージョンでサポートされている単一のローリングストリームを介して使用できます。Network Observability Operator の新機能、機能拡張、バグ修正に関する情報は、Network Observability リリースノート に記載されています。
1.3.9. ハードウェア
1.3.9.1. MetalLB 負荷分散の機能拡張
MetalLB および MetalLB Operator の以下の拡張機能は、本リリースに含まれています。
- Border Gateway Protocol (BGP) のサポートが追加されました。
- BGP と組み合わせて双方向転送検出 (BFD) のサポートが追加されました。
- IPv6 およびデュアルスタックネットワークのサポートが追加されました。
-
speaker
Pod でノードセレクターを指定するサポートが追加されます。ロードバランサーサービスの IP アドレスのアドバタイズに使用されるノードを制御できるようになりました。今回の機能拡張は、レイヤー 2 モードおよび BGP モードに適用されます。 - Web フックの検証により、アドレスプールと BGP ピアカスタムリソースが有効であることを確認します。
-
4.9 リリースで導入された
AddressPool
およびMetalLB
カスタムリソース定義のv1alpha1
API バージョンは非推奨になりました。どちらのカスタムリソースもv1beta1
API バージョンに更新されます。 - MetalLB カスタムリソース定義のスピーカー Pod の容認のサポートが追加されました。
詳細は、About MetalLB and the MetalLB Operator を参照してください。
1.3.9.2. ホストファームウェア設定の変更のサポート
OpenShift Container Platform は HostFirmwareSettings
および FirmwareSchema
リソースをサポートします。ベアメタルホストに OpenShift Container Platform をデプロイする場合、プロビジョニングの前後にホストに変更を加える必要がある場合があります。これには、ホストのファームウェアおよび BIOS の詳細の検証が含まれます。Bare Metal Operator (BMO) で使用できる新しいリソースが 2 つあります。
-
HostFirmwareSettings
:HostFirmwareSettings
リソースを使用して、ホストの BIOS 設定を取得および管理できます。リソースには、ベースボード管理コントローラー (BMC) から返される完全な BIOS 設定が含まれます。BareMetalHost
リソースのファームウェアフィールドは、3 つのベンダーに依存しないフィールドを返しますが、通常HostFirmwareSettings
リソースはホストモデルごとにベンダー固有のフィールドの BIOS 設定を多数設定します。 -
FirmwareSchema
: ホストファームウェア設定を変更する際に、FirmwareSchema
を使用してホストの変更可能な BIOS 値および制限を特定できます。
詳細は、ベアメタルの設定を参照してください。
1.3.10. ストレージ
1.3.10.1. ストレージメトリックインジケーター
-
この更新により、ワークロードは、Shared Resource CSI ドライバーによって提供されるインラインの一時
csi
ボリュームを使用して、namespace でSecrets
およびConfigMap
オブジェクトを安全に共有できます。Container Storage Interface (CSI) ボリュームおよび Shared Resource CSI ドライバーはテクノロジープレビュー機能です。(BUILD-293)
1.3.10.2. コンソールストレージプラグインの拡張機能
- スクリーンリーダーのインストールフロー全体で Aria ラベルを追加する Console Storage プラグインに新しい機能が追加されました。これにより、スクリーンリーダーを使用してコンソールにアクセスするユーザーに、アクセス性が向上します。
- Persistent Volume Claim (永続ボリューム要求、PVC) に使用されるボリュームで使用される領域の量を示すメトリックを提供する新機能が追加されました。この情報は PVC リストに表示され、PVC の詳細の Used 列に表示されます。(BZ#1985965)
1.3.10.3. Alibaba AliCloud Disk CSI ドライバー Operator を使用した永続ストレージ
OpenShift Container Platform は、AliCloud Disk の Container Storage Interface (CSI) ドライバーを使用して永続ボリューム (PV) をプロビジョニングできます。このドライバーを管理する AliCloud Disk Driver Operator は一般に利用可能であり、OpenShift Container Platform 4.10 ではデフォルトで有効になっています。
詳細は、AliCloud Disk CSI Driver Operator を参照してください。
1.3.10.4. Microsoft Azure File CSI ドライバー Operator を使用した永続ストレージ (テクノロジープレビュー)
OpenShift Container Platform は、Azure ファイルの Container Storage Interface (CSI) ドライバーを使用して永続ボリューム (PV) をプロビジョニングできます。このドライバーを管理する Azure File Driver Operator はテクノロジープレビュー機能です。
詳細は、Azure File CSI Driver Operatorを参照してください。
1.3.10.5. IBM VPC Block CSI Driver Operator を使用した永続ストレージ
OpenShift Container Platform は、Red Hat Virtualization (RHV) の Container Storage Interface (CSI) ドライバーを使用して永続ボリューム (PV) をプロビジョニングできます。このドライバーを管理する IBM VPC Block Driver Operator は一般に利用可能であり、OpenShift Container Platform 4.10 ではデフォルトで有効になっています。
詳細は、IBM VPC Block CSI Driver Operatorを参照してください。
1.3.10.6. VMware vSphere CSI Driver Operator を使用した永続ストレージが一般に利用可能になる
OpenShift Container Platform は、vSphere の Container Storage Interface (CSI) ドライバーを使用して永続ボリューム (PV) をプロビジョニングできます。この機能は以前は OpenShift Container Platform 4.8 のテクノロジープレビュー機能として導入されましたが、OpenShift Container Platform 4.10 では一般に利用可能となり、デフォルトで有効にされます。
詳細は、vSphere CSI Driver Operator を参照してください。
vSphere CSI ドライバー Operator のインストールには以下が必要です。
- 特定の最小コンポーネントバージョンがインストールされている。vSphere クラスターへの CSI ドライバーのインストールを参照してください。
- Red Hat vSphere CSI ドライバー ( Red Hat vSphere CSI Operator ドライバーの削除) の削除
-
thin-csi
という名前のストレージクラスの削除
前述の条件が満たされなくても、クラスターはアップグレードされますが、サポートされる vSphere CSI Operator ドライバーを使用するにはこれらの条件を満たすことが推奨されます。
1.3.10.7. Microsoft Azure Disk CSI Driver Operator を使用した永続ストレージが一般に利用可能になる
OpenShift Container Platform は、Azure ディスクの Container Storage Interface (CSI) ドライバーを使用して永続ボリューム (PV) をプロビジョニングできます。この機能は以前は OpenShift Container Platform 4.8 のテクノロジープレビュー機能として導入されましたが、OpenShift Container Platform 4.10 では一般に利用可能となり、デフォルトで有効にされます。
詳細は、Azure Disk CSI Driver Operator を参照してください。
1.3.10.8. AWS Elastic File Storage CSI ドライバー Operator を使用した永続ストレージが一般に利用可能になる
OpenShift Container Platform は、AWS Elastic File Storage (EFS) の Container Storage Interface (CSI) ドライバーを使用して永続ボリューム (PV) をプロビジョニングできます。この機能は以前は OpenShift Container Platform 4.9 のテクノロジープレビュー機能として導入されましたが、OpenShift Container Platform 4.10 では一般に利用可能となりました。
詳細は、AWS EFS CSI Driver Operator を参照してください。
1.3.10.9. CSI の自動移行による Microsoft Azure ファイルのサポート (テクノロジープレビュー)
OpenShift Container Platform 4.8 以降、インツリーボリュームプラグインの同等の Container Storage Interface (CSI) ドライバーへの自動移行がテクノロジープレビュー機能として利用可能になりました。この機能は、Azure File in-tree プラグインの Azure File CSI ドライバーへの自動移行をサポートするようになりました。
詳細は、CSI 自動移行を参照してください。
1.3.10.10. CSI の自動移行による VMware vSphere のサポート (テクノロジープレビュー)
OpenShift Container Platform 4.8 以降、インツリーボリュームプラグインの同等の Container Storage Interface (CSI) ドライバーへの自動移行がテクノロジープレビュー機能として利用可能になりました。この機能は、vSphere in-tree プラグインの vSphere CSI ドライバーへの自動移行をサポートするようになりました。
詳細は、CSI 自動移行を参照してください。
1.3.10.11. fsGroup を使用した Pod タイムアウトの削減
ストレージボリュームに多数のファイル (およそ 100 万以上) が含まれる場合には、Pod のタイムアウトが生じる可能性があります。
OpenShift Container Platform 4.10 では、fsGroup
および fsGroupChangePolicy
を使用して、ストレージボリュームの再帰的なパーミッションの変更をスキップする機能が導入されているため、Pod タイムアウトの問題を回避できます。
詳細は、fsGroup を使用した Pod タイムアウトの削減を参照してください。
1.3.11. レジストリー
1.3.12. Operator ライフサイクル
1.3.12.1. 大規模なクラスターをサポートするためにコピーされた CSV の無効化
Operator が Operator Lifecycle Manager (OLM) によってインストールされると、そのクラスターサービスバージョン (CSV) の簡単なコピーが Operator が監視するすべての namespace に作成されます。これらの CSV は、コピーされる CSV として知られ、それらは特定の namespace でリソースイベントをアクティブに調整しているコントローラーを特定します。
大規模なクラスターでは、namespace およびインストールされた Operator が数百または数千の場合に、コピーされた CSV は OLM のメモリー使用量、クラスター etcd 制限、およびネットワーク帯域幅などのリソースを有効にしない量を消費する可能性があります。これらの大規模なクラスターをサポートするために、クラスター管理者は、AllNamespaces
モードでインストールされる Operator のコピーされた CSV を無効にできます。
詳細は、Operator Lifecycle Manager 機能の設定を参照してください。
1.3.12.2. 依存関係に対する汎用的および複雑な制約
特定の依存関係要件を持つ Operator は、複雑な制約または要件式を使用できるようになりました。新しい olm.constraint
バンドルプロパティーは、依存関係制約情報を保持します。message フィールドにより、Operator の作成者は特定の制約が使用される理由についてハイレベルな詳細情報を伝えることができます。
詳細は、Operator Lifecycle Manager の依存関係の解決を参照してください。
1.3.12.3. Hypershift の Operator Lifecycle Manager のサポート
Operator カタログを含む Operator Lifecycle Manager (OLM) コンポーネントは、Hypershift 管理のコントロールプレーンで完全に実行できるようになりました。この機能により、ワーカーノードのテナントにコストがかかりません。
1.3.12.4. ARM の Operator Lifecycle Manager のサポート
以前のバージョンでは、デフォルトの Operator カタログは ARM をサポートしませんでした。今回の機能拡張により、Operator Lifecycle Manager (OLM) がデフォルトの Operator カタログを ARM クラスターに追加するようになりました。その結果、OperatorHub には ARM をサポートする Operator がデフォルトでコンテンツが含まれるようになりました。(BZ#1996928)
1.3.13. Operator の開発
1.3.13.1. ハイブリッド Helm Operator (テクノロジープレビュー)
Operator SDK における標準の Helm ベースの Operator サポートは、Operator の Operator 成熟度モデル で Auto Pilot 機能 (レベル V) に達した Go ベースおよび Ansible ベースの Operator サポートよりも機能が限定されています。
OpenShift Container Platform 4.10 以降、Operator SDK にはハイブリッド Helm Operator が含まれており、Go API 経由で既存の Helm ベースのサポートを強化します。Operator の作成者は Helm チャートで始まる Operator プロジェクトを生成し、Go 言語の Helm リコンサイラーに高度なイベントベースのロジックを追加できます。作成者は Go を使用して、同じプロジェクトに新規 API およびカスタムリソース定義 (CRD) の追加を継続できます。
詳細は、ハイブリッド Helm Operator の Operator SDK チュートリアルを参照してください。
1.3.13.2. Ansible ベースの Operator のカスタムメトリック
Operator の作成者は Operator SDK で Ansible ベースの Operator サポートを使用し、カスタムメトリックの公開、Kubernetes イベントの送信、および優れたロギングの提供が可能になりました。
詳細は、Ansible ベースの Operator のカスタムメトリックの公開を参照してください。
1.3.13.3. Go ベースの演算子のオブジェクトプルーニング
operator-lib
プルーニングユーティリティーを使用すると、Go ベースのオペレーターは、クラスター内にとどまり、リソースを使用できるジョブや Pod などのオブジェクトをクリーンアップできます。このユーティリティーには、囲碁ベースのオペレーター向けの一般的な剪定戦略が含まれています。Operator の作成者は、ユーティリティーを使用してカスタムフックと戦略を作成することもできます。
プルーニングユーティリティーの詳細は、Go ベースの演算子のオブジェクトプルーニングユーティリティーを参照してください。
1.3.13.4. 切断された環境向けのダイジェストベースのバンドル
この機能拡張により、Operator SDK は、Operator Lifecycle Manager (OLM) を使用して切断された環境で機能するバンドルに Operator プロジェクトをパッケージ化できるようになりました。オペレーターの作成者は、make bundle
コマンドを実行し、USE_IMAGE_DIGESTS
を true
に設定して、オペレーターのイメージ参照をタグではなくダイジェストに自動的に更新できます。このコマンドを使用するには、環境変数を使用して、ハードコードされた関連するイメージ参照を置き換える必要があります。
切断された環境用の Operator の開発の詳細には、制限されたネットワーク環境での Operator の有効化を参照してください。
1.3.14. ビルド
今回の更新により、OpenShift ビルドで CSI ボリュームを使用できるようになりました。これはテクノロジープレビュー機能です。この機能は、新たに導入された Shared Resource CSI ドライバーおよび Insights Operator に依存して、RHEL Simple Content Access (SCA) 証明書をインポートします。たとえば、この機能を使用すると、
SharedSecret
オブジェクトでエンタイトルメントが適用されたビルドを実行し、RHEL サブスクリプション認証情報および証明書をビルドの namespace にコピーするのではなく、ビルド時にエンタイトルメントのある RPM パッケージをインストールできます。(BUILD-274)重要SharedSecret
オブジェクトおよび OpenShift Shared Resources 機能は、TechPreviewNoUpgrade
機能セットを有効にする場合にのみ利用できます。これらのテクノロジープレビュー機能は、デフォルトの機能の一部ではありません。この機能セットを有効にすると元に戻すことができなくなり、アップグレードできなくなります。この機能セットは、実稼働クラスターでは推奨されません。FeatureGate の使用によるテクノロジープレビュー機能の有効化を参照してください。-
この更新により、ワークロードは、Shared Resource CSI ドライバーによって提供されるインラインの一時
csi
ボリュームを使用して、namespace でSecrets
およびConfigMap
オブジェクトを安全に共有できます。Container Storage Interface (CSI) ボリュームおよび Shared Resource CSI ドライバーはテクノロジープレビュー機能です。(BUILD-293)
1.3.15. Jenkins
-
今回の更新により、Jenkins エージェントをサイドカーコンテナーとして実行できるようになりました。この機能を使用して、適切に設定された Pod テンプレートと Jenkins ファイルを持つ Jenkins パイプライン内のコンテナーイメージを実行できます。コードをコンパイルするために、
java-build
とnodejs-builder
という名前の 2 つの新規 Pod テンプレートを Jenkins を使用してサイドカーコンテナーとして実行できるようになりました。これらの 2 つの Pod テンプレートは、openshift
namespace のjava
およびnodejs
イメージストリームで提供される最新の Java および NodeJS バージョンを使用します。以前の non-sidecarmaven
およびnodejs
Pod テンプレートが非推奨になりました。(JKNS-132)
1.3.16. マシン API
1.3.16.1. Azure Ephemeral OS ディスクのサポート
今回の機能拡張により、マシンを Azure Ephemeral OS ディスクにデプロイする Azure で実行されるマシンセットを作成できるようになりました。Azure Ephemeral OS ディスクは、リモートの Azure Storage ではなく、ローカルの VM 容量を使用します。
詳細は、マシンを Ephemeral OS ディスクにデプロイするマシンセット ついて参照してください。
1.3.16.2. Azure Accelerated Networking のサポート
このリリースでは、Machine API を使用して、Microsoft Azure VM の高速ネットワークを有効にできます。アクセラレートネットワークでは、Single Root I/O Virtualization (SR-IOV) を使用して、仮想マシンのスイッチへの直接パスを提供します。
詳細は、Accelerated Networking for Microsoft Azure VMsを参照してください。
1.3.16.3. グローバル Azure 可用性セットのサポート
今回のリリースにより、高可用性を確保するために、複数のアベイラビリティーゾーンを持たないグローバル Azure リージョンで可用性セットを使用できるようになりました。
1.3.16.4. Google Cloud Platform での GPU サポート
Google Cloud Platform (GCP) Compute Engine を使用すると、ユーザーは仮想マシンインスタンスに GPU を追加できます。GPU リソースにアクセスできるワークロードは、この機能を有効にしてコンピュートマシンでより優れたパフォーマンスが得られます。今回のリリースにより、Machine API を使用して、インスタンスに使用するサポートされる GPU を定義できるようになりました。
詳細は、マシンセットの GPU サポートの有効化 について参照してください。
1.3.16.5. Cluster Autoscaler ノード使用率のしきい値
今回の機能拡張により、ClusterAutoscaler
リソース定義にノード使用率のしきい値を指定できるようになりました。このしきい値は、不要なノードが削除の対象となっているノードの使用率レベルを表します。
詳細は、Cluster Autoscaler についてを参照してください。
1.3.17. Machine Config Operator
1.3.17.1. 設定ドリフト検出の強化
今回の機能拡張により、Machine Config Daemon (MCD) は、ノード起動に加えて、マシン設定で指定されたファイルについてファイルシステム書き込みイベントが発生する場合、またはノードの起動に加えて新規のマシン設定が適用される前に、ノードの設定ドリフトをチェックするようになりました。以前のバージョンでは、MCD はノードの起動時にのみ設定のドリフトの有無を確認していました。この変更は、管理者が問題を修正するまで設定ドリフトによって生じる問題を回避するためにノードの再起動が頻繁に行われないために加えられました。
設定ドリフトは、ノードのディスク上の状態がマシン設定で設定される内容と異なる場合に発生します。Machine Config Operator (MCO) は MCD を使用して設定ドリフトの有無を確認し、検出される場合はノードおよびマシン設定プール (MCP) のパフォーマンスが 低下
します。
設定ドリフトの詳細は、Understanding configuration drift detection を参照してください。
1.3.18. ノード
1.3.18.1. Linux コントロールグループのバージョン 2(開発者プレビュー)
クラスター内の特定ノードで Linux control groups version 2 (cgroups v2) を有効化できるようになりました。cgroups v2 を有効にする OpenShift Container Platform プロセスにより、cgroups バージョン 1 コントローラーおよび階層がすべて無効になります。OpenShift Container Platform cgroups バージョン 2 機能は Developer プレビューとして提供されており、現時点では Red Hat ではサポートされていません。詳細は、Enabling Linux control groups version 2 (cgroups v2)を参照してください。
1.3.18.2. ノードでのスワップメモリー使用のサポート (テクノロジープレビュー)
ノードごとに OpenShift Container Platform ワークロードの swap メモリー使用量を有効にすることができます。詳細は、ノードでの swap メモリー使用の有効化を参照してください。
1.3.18.3. Node Maintenance Operator を使用したノードのメンテナンスモードへの配置
Node Maintenance Operator (NMO) は、クラスターの残りの部分からノードを切り離し、ノードからすべての Pod をドレイン (解放) します。ノードをメンテナンス状態にすることで、マシンの問題を調査したり、基礎となるマシンで操作を実行したり、ノードに障害が発生する可能性があります。これは NMO のスタンドアロンバージョンです。OpenShift Virtualization をインストールしている場合、バンドルされる NMO を使用する必要があります。
1.3.18.4. ノードヘルスチェックオペレーターの機能強化 (テクノロジープレビュー)
Node Health Check Operator は、これらの新たな拡張機能を提供します。
- 非接続モードでの実行サポート
- マシンヘルスチェックとの競合を防ぐことができます。詳細は、ノードのヘルスチェックによるマシンヘルスチェックの競合を参照してください。
1.3.18.5. Poison Pill Operator の拡張機能
Poison Pill Operator は NodeDeletion
をデフォルトの修復ストラテジーとして使用します。NodeDeletion
修復ストラテジーは node
オブジェクトを削除します。
OpenShift Container Platform 4.10 では、Poison Pill Operator は ResourceDeletion
という新規の修復ストラテジーを導入しています。ResourceDeletion
修復ストラテジーは、node
オブジェクトではなくノードでの Pod および関連付けられたボリュームの割り当てを削除します。このストラテジーは、ワークロードをより迅速に復元するのに役立ちます。
1.3.18.6. RHOSP でのコントロールプレーンノードの移行
これで、サービスを中断することなく、コントロールプレーンノードをある RHOSP ホストから別のホストに移行できます。
1.3.19. Red Hat OpenShift Logging
OpenShift Container Platform 4.7 では、Cluster Logging は Red Hat OpenShift Logging になりました。詳細は、Release notes for Red Hat OpenShift Logging を参照してください。
1.3.20. モニタリング
本リリースのモニタリングスタックには、以下の新機能および変更された機能が含まれています。
1.3.20.1. モニタリングスタックコンポーネントおよび依存関係
モニタリングスタックコンポーネントおよび依存関係のバージョンの更新には、以下が含まれます。
- Alertmanager to 0.23.0
- Grafana to 8.3.4
- kube-state-metrics to 2.3.0
- node-exporter to 1.3.1
- prom-label-proxy to 0.4.0
- Prometheus to 2.32.1
- Prometheus adapter to 0.9.1
- Prometheus operator to 0.53.1
- Thanos to 0.23.1
1.3.20.2. OpenShift Container Platform Web コンソールでのメトリックターゲットの新規ページ
OpenShift Container Platform Web コンソールの新規 Metrics Targets ページには、デフォルトの OpenShift Container Platform プロジェクトおよびユーザー定義プロジェクトのターゲットが表示されます。このページを使用すると、現在収集の対象となっているエンドポイントを表示、検索、およびフィルタリングできます。これにより、問題を特定してトラブルシューティングしやすくなります。
1.3.20.3. メトリクス収集に TLS 認証を使用するように更新されたモニタリングコンポーネント
今回のリリースにより、すべてのモニタリングコンポーネントが、メトリクス収集にベアラートークンの静的認証ではなく、相互 TLS 認証を使用するように設定されるようになりました。TLS 認証は、Kubernetes API の停止に対してより回復力が高く、Kubernetes API の負荷が軽減されます。
1.3.20.4. Cluster Monitoring Operator がグローバル TLS セキュリティープロファイルを使用するように更新
今回のリリースにより、Cluster Monitoring Operator コンポーネントはグローバルな OpenShift Container Platform tlsSecurityProfile
設定を有効にするようになりました。以下のコンポーネントおよびサービスは、TLS セキュリティープロファイルを使用するようになりました。
- Alertmanager Pod (ポート 9092 および 9097)
- kube-state-metrics Pod (ポート 8443 および 9443)
- openshift-state-metrics Pod (ポート 8443 および 9443)
- node-exporter pods (ポート 9100)
- Grafana pod (ポート 3002)
- prometheus-adapter pods (ポート 6443)
- prometheus-k8s pods (ポート 9092 および 10902)
- Thanos クエリー pods (ポート 9092、9093 および 9094)
- Prometheus Operator (ポート 8080 および 8443)
- Telemeter-client Pod (ポート 8443)
ユーザー定義モニタリングを有効にしている場合、以下の Pod がプロファイルを使用するようになりました。
- prometheus-user-workload Pod (ポート 9091 および 10902)
- prometheus-operator Pod (ポート 8080 および 8443)
1.3.20.5. アラートルールの変更
New
-
すべての Thanos アラートルールに
namespace
ラベルを追加しました。 -
すべてのプラットフォームアラートに
openshift_io_alert_source="platform"
ラベルが追加されました。
-
すべての Thanos アラートルールに
変更済み
-
AggregatedAPIDown
の名前をKubeAggregatedAPIDown
に変更します。 -
AggregatedAPIErrors
の名前をKubeAggregatedAPIErrors
に変更します。 -
HighlyAvailableWorkloadIncorrectlySpread
アラートが削除されました。 -
KubeMemoryOvercommit
アラートの説明が改善されました。 -
NodeFilesystemSpaceFillingUp
アラートが強化され、Kubernetes ガべージコレクションのしきい値と一致しました。 -
KubePersistentVolumeFillingUp
アラートから除外されるReadOnlyMany
ボリューム。 -
拡張
PrometheusOperator
アラートがopenshift-user-workload-monitoring
namespace で実行されている Prometheus Operator を組み込むように拡張されました。 -
ThanosSidecarPrometheusDown
およびThanosSidecarUnhealthy
のアラートをThanosSidecarNoConnectionToStartedPrometheus
に変更しました。 -
KubeletTooManyPods
の重大度をwarning
からinfo
に変更しました。 -
alerts.k8s.io/KubePersistentVolumeFillingUp: disabled
ラベルを永続ボリュームリソースに追加して、KubePersistentVolumeFillingUp
アラートから特定の永続ボリュームの除外が有効にされています。
-
Red Hat は、記録ルールまたはアラートルールの後方互換性を保証しません。
1.3.20.6. メトリックの変更
- スライスレベルで利用可能な Pod 中心の cAdvisor メトリックがドロップされました。
以下のメトリックが公開されました。
-
kube_poddisruptionbudget_labels
-
kube_persistentvolumeclaim_labels
-
kube_persistentvolume_labels
-
-
名前が
kube_*annotation
のメトリックはkube-state-metrics
から削除されました。
Red Hat は、メトリックの後方互換性を保証しません。
1.3.20.7. 特定のコンポーネントのハード非アフィニティールールおよび Pod の Disruption Budget (停止状態の予算) を追加
今回のリリースにより、ハード非アフィニティールールおよび Pod の Disruption Budget (停止状態の予算) がモニタリングするコンポーネントで、パッチのアップグレード時にダウンタイムを短縮できるようになりました。
Alertmanager
注記この変更の一環として、Alertmanager レプリカの数が 3 から 2 に削減されました。ただし、削除された 3 番目のレプリカの Persistent Volume Claim (永続ボリューム要求、PVC) は、アップグレードプロセスの一環として自動的に削除されません。Alertmanager の永続ストレージを設定している場合、この PVC を Cluster Monitoring Operator から手動で削除できます。詳細は、既知の問題のセクションを参照してください。
- Prometheus アダプター
- Prometheus
- Thanos Querier
ユーザー定義のモニタリングを有効にしている場合、以下のコンポーネントはそれらのルールおよび予算も使用します。
- Prometheus
- Thanos Ruler
1.3.20.8. ユーザー定義プロジェクトのアラートルーティング (テクノロジープレビュー)
本リリースでは、管理者がユーザー定義プロジェクトのモニタリングのアラートルーティングを有効にできるテクノロジープレビュー機能が導入されました。ユーザーは、ユーザー定義プロジェクトのアラートルーティングを追加し、設定できます。
1.3.20.9. Alertmanager
OpenShift Container Platform ルートからサードパーティーの Alertmanager Web ユーザーインターフェイスへのアクセスが削除されました。
1.3.20.10. Prometheus
- OpenShift Container Platform クラスター管理者は、Prometheus のクエリーロギングを設定できるようになりました。
- サードパーティーの Prometheus Web ユーザーインターフェイスへのアクセスは非推奨となり、今後の OpenShift Container Platform リリースで削除されます。
1.3.20.11. Prometheus アダプター
- Prometheus アダプターは、Prometheus API ではなく Thanos Querier API を使用するようになりました。
- OpenShift Container Platform クラスター管理者は、Prometheus アダプターの監査ログを設定できるようになりました。
1.3.20.12. Thanos Querier
- OpenShift Container Platform ルートからサードパーティーの Thanos Querier Web ユーザーインターフェイスへのアクセスが削除されました。
-
Thanos Querier テナントポートの
/api/v1/labels
、/api/v1/label/*/values
および/api/v1/series
エンドポイントが公開されるようになりました。 - OpenShift Container Platform クラスター管理者はクエリーロギングを設定できるようになりました。
- ユーザーワークロードモニタリングが有効にされている場合、OpenShift Container Platform ルートからサードパーティーの Thanos Ruler Web ユーザーインターフェイスへのアクセスが削除されます。
1.3.20.13. Grafana
サードパーティーの Grafana Web ユーザーインターフェイスへのアクセスは非推奨となり、今後の OpenShift Container Platform リリースで削除されます。
1.3.21. スケーラビリティーおよびパフォーマンス
1.3.21.1. 新しい Special Resource Operator メトリック
Special Resource Operator (SRO) は、SRO カスタムリソースおよびオブジェクトの正常性を監視するためのメトリックを公開するようになりました。詳細は、Prometheus Special Resource Operator metrics を参照してください。
1.3.21.2. 特別な Resource Operator カスタムリソース定義フィールド
Special Resource Operator (SRO) に oc explain
を使用すると、SRO カスタムリソース定義 (CRD) のオンラインドキュメントが提供されるようになりました。今回の機能拡張により、CRD フィールドの詳細が改善されました。(BZ#2031875)
1.3.21.3. 新たな Node Tuning Operator メトリックが Telemetry に追加される
Node Tuning Operator (NTO) メトリックが Telemetry に追加されました。Telemetry によって収集されるデータの表示についての手順に従い、Telemetry によって 収集されるすべてのメトリックを表示します。
1.3.21.4. NFD Topology Updater が利用可能になりました。
Node Feature Discovery (NFD) Topology Updater は、ワーカーノードに割り当てられたリソースを調べるデーモンです。これは、ゾーンごとに新規 Pod に割り当てることができるリソースに対応し、ゾーンを Non-Uniform Memory Access (NUMA) ノードにすることができます。詳細は、NFD Topology Updater の使用を参照してください。
1.3.21.5. ハイパースレッディング対応の CPU マネージャーポリシー (テクノロジープレビュー)
OpenShift Container Platform のハイパースレッディング対応の CPU マネージャーポリシーは追加のチューニングなしに利用できるようになりました。クラスター管理者は、必要に応じてこの機能を有効にできます。ハイパースレッドは、ハードウェアによって論理プロセッサーとして抽象化されます。ハイパースレッディングにより、単一の物理プロセッサーが同時に 2 つの負荷スレッド (プロセス) を実行し、プロセッサーリソースを動的に共有できます。
1.3.21.6. NUMA Resources Operator による NUMA 対応スケジューリング (テクノロジープレビュー)
デフォルトの OpenShift Container Platform スケジューラーは、コンピュートノード内の個々の Non-Uniform Memory Access (NUMA) ゾーンを認識しません。これにより、レイテンシーの影響を受けやすいワークロードのスケジューリングが最適化されない可能性があります。NUMA 対応のセカンダリースケジューラーをデプロイする新しい NUMA Resources Operator が利用可能です。NUMA 対応のセカンダリースケジューラーは、クラスター内で使用可能な NUMA ゾーンの全体像に基づいて、ワークロードのスケジューリングを決定します。これにより、レイテンシーの影響を受けやすいワークロードが単一の NUMA ゾーンで処理され、効率とパフォーマンスが最大化されます。
詳細は、About NUMA-aware scheduling を参照してください。
1.3.21.7. SiteConfig フィルターを使用して ZTP スポーククラスターのインストール中にカスタムリソースをフィルター処理する
フィルターを使用して SiteConfig
CR をカスタマイズし、ゼロタッチプロビジョニング (ZTP) GitOps パイプラインのインストールフェーズで使用する他の CR を含めたり除外したりできるようになりました。詳細は、Filtering custom resources using SiteConfig filters を参照してください。
1.3.21.8. vDU ユースケースの PolicyGenTemplate CR で chronyd を無効にする
RAN vDU アプリケーションを実行しているノードでは、以前のバージョンから OpenShift Container Platform 4.10 に更新する場合に、chronyd
を無効にする必要があります。chronyd
を無効にするには、TunedPerformancePatch.yaml
ファイルの .spec.profile.data
の下の [service]
セクションに以下の行を追加します。TunedPerformancePatch.yaml
ファイルは、グループ PolicyGenTemplate
CR で参照されます。
[service] service.chronyd=stop,disable
詳細は、vDU アプリケーションを実行するための推奨クラスター設定 を参照してください。
1.3.22. バックアップと復元
1.3.23. 開発者エクスペリエンス
1.3.23.1. デプロイメントレプリカセットのプルーニング (テクノロジープレビュー)
本リリースでは、テクノロジープレビューフラグ --replica-sets
が oc adm prune deployments
コマンドに追加されました。デフォルトで、レプリケーションコントローラーのみが oc adm prune deployments
コマンドでプルーニングされます。--replica-sets
を true
に設定すると、レプリカセットもプルーニングプロセスに含まれます。
詳細は、デプロイメントリソースのプルーニングを参照してください。
1.3.24. Insights Operator
1.3.24.1. シンプルなコンテンツアクセス証明書のインポート
OpenShift Container Platform 4.10 では、Insights Operator はデフォルトで Red Hat OpenShift Cluster Manager から単純なコンテンツアクセス証明書をインポートするようになりました。
詳細は、Importing simple content access certificates with Insights Operator を参照してください。
1.3.24.2. Insights Operator のデータ収集機能の拡張
Red Hat に送信されるデータ量を減らすために、Insights Operator は特定の条件が満たされる場合にのみ情報を収集します。たとえば、Insights Operator は、Alertmanager がアラート通知の送信に失敗する場合にのみ Alertmanager ログを収集します。
OpenShift Container Platform 4.10 では、Insights Operator は以下の追加情報を収集します。
-
(条件)
KubePodCrashlooping
およびKubePodNotReady
アラートが実行される Pod からのログ -
(条件)
AlertmanagerClusterFailedToSendAlerts
またはAlertmanagerFailedToSendAlerts
アラートの実行時に Alertmanager ログ。 - Alertmanager からの無音アラート
- ジャーナルユニット (kubelet) からのノードログ
-
costmanagement-metrics-operator
がインストールされているクラスターのCostManagementMetricsConfig
- モニタリングスタック Prometheus インスタンスからの時系列データベースのステータス
- OpenShift Container Platform スケジューラーに関する追加情報
この追加情報により、Red Hat は OpenShift Container Platform 機能を強化し、Insights Advisor の推奨事項を強化します。
1.3.25. 認証および認可
1.3.25.1. OpenID Connect アイデンティティープロバイダーからのグループメンバーシップの同期
本リリースでは、ユーザーのログイン時に、OpenID Connect プロバイダーから OpenShift Container Platform にグループメンバーシップを同期するサポートが導入されました。これを有効にするには、OpenShift Container Platform OpenID Connect アイデンティティープロバイダー設定で groups
要求を設定します。
詳細は、Sample OpenID Connect CRs を参照してください。
1.3.25.2. サポートされる追加の OIDC プロバイダー
Okta および Ping Identity OpenID Connect (OIDC) プロバイダーは、OpenShift Container Platform でテストされ、サポートされるようになりました。
OIDC プロバイダーの完全リストは、サポートされている OIDC プロバイダーを参照してください。
1.3.25.3. oc コマンドが Podman 設定の場所から認証情報を取得できるようになりました。
以前のバージョンでは、レジストリー設定 (oc login
または oc image
など) を使用する oc
コマンドは、Docker 設定の場所から認証情報を取得していました。OpenShift Container Platform 4.10 では、レジストリーエントリーがデフォルトの Docker 設定の場所で見つからない場合、oc
コマンドは Podman 設定の場所から認証情報を取得します。場所の優先順位付けのために REGISTRY_AUTH_PREFERENCE
環境変数を使用して docker
または podman
のいずれかの設定を設定できます。
また、ユーザーは REGISTRY_AUTH_FILE
環境変数を使用するオプションもあります。これは、既存の --registry-config
CLI フラグの代わりに機能します。REGISTRY_AUTH_FILE
環境変数も podman
と互換性があります。
1.3.25.4. Google Cloud Platform Workload Identity のサポート
Cloud Credential Operator (CCO) ユーティリティー ccoctl
を使用して、Google Cloud Platform Workload Identity を使用するように CCO を設定できるようになりました。CCO が GCP Workload Identity を使用するように設定されている場合、クラスター内のコンポーネントは、短期的で制限付き権限のセキュリティー認証情報を使用して IAM サービスアカウントになりすますことができます。
詳細は、Using manual mode with GCP Workload Identity を参照してください。
OpenShift Container Platform 4.10.8 では、イメージレジストリーへの悪影響が発見されたため、GCP ワークロード ID を使用するためのイメージレジストリーサポートが削除されました。ワークロード ID を使用する OpenShift Container Platform 4.10.8 クラスターでイメージレジストリーを使用するには、代わりに長期間有効なクレデンシャルを使用するようにイメージレジストリーを設定する必要があります。
OpenShift Container Platform 4.10.21 では、イメージレジストリーで GCP Workload Identity を使用するためのサポートが復活しました。OpenShift Container Platform 4.10.8 から 4.10.20 までのこの機能のステータスに関する詳細は、関連する ナレッジベースの記事 を参照してください。