5.3. 削除された機能
5.3.1. Microsoft SQL Server コマンドラインツールの削除 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift AI 2.24 以降、Microsoft SQL Server コマンドラインツール (sqlcmd、bcp) がワークベンチから削除されました。プリインストールされたコマンドラインクライアントを使用して Microsoft SQL Server を管理できなくなりました。
5.3.2. モデルレジストリー ML Metadata (MLMD) サーバーの削除 リンクのコピーリンクがクリップボードにコピーされました!
OpenShift AI 2.23 以降、ML Metadata (MLMD) サーバーはモデルレジストリーコンポーネントから削除されました。モデルレジストリーは、既存のモデルレジストリー API とデータベーススキーマを使用して、基盤となるデータベースと直接対話するようになりました。この変更により、アーキテクチャー全体が簡素化され、ml-metadata
コンポーネントからモデルレジストリーから直接データベースアクセスに移行することで、モデルレジストリーの長期的な保守性と効率性が確保されます。
モデルレジストリーのデプロイメントで次のエラーが表示される場合は、データベーススキーマの移行が失敗しています。
error: error connecting to datastore: Dirty database version {version}. Fix and force version.
error: error connecting to datastore: Dirty database version {version}. Fix and force version.
この問題を解決するには、トラフィックを Pod にルーティングする前に、データベースを手動でダーティー状態から 0 に変更します。以下の手順を実行します。
次のようにして、モデルレジストリーデータベース Pod の名前を見つけます。
kubectl get pods -n <your-namespace> | grep model-registry-db
<your-namespace>
は、モデルレジストリーがデプロイされている namespace に置き換えます。次のように、
kubectl exec
を使用して、モデルレジストリーデータベース Pod でクエリーを実行します。kubectl exec -n <your-namespace> <your-db-pod-name> -c mysql -- mysql -u root -p"$MYSQL_ROOT_PASSWORD" -e "USE <your-db-name>; UPDATE schema_migrations SET dirty = 0;"
<your-namespace>
は、モデルレジストリーの namespace に、<your-db-pod-name>
は、前の手順で確認した Pod 名に置き換えます。<your-db-name>
は、モデルレジストリーデータベース名に置き換えます。これにより、データベース内のダーティー状態がリセットされ、モデルレジストリーが正しく起動できるようになります。
5.3.3. Anaconda の削除 リンクのコピーリンクがクリップボードにコピーされました!
Anaconda は、Python および R プログラミング言語のオープンソースディストリビューションです。OpenShift AI バージョン 2.18 以降、Anaconda は OpenShift AI に含まれなくなり、Anaconda リソースは OpenShift AI でサポートまたは管理されなくなりました。
以前に OpenShift AI から Anaconda をインストールした場合は、クラスター管理者は OpenShift コマンドラインインターフェイスから次の手順を実行して、Anaconda 関連のアーティファクトを削除する必要があります。
Anaconda パスワードを含むシークレットを削除します。
oc delete secret -n redhat-ods-applications anaconda-ce-access
Anaconda 検証 cronjob の
ConfigMap
を削除します。oc delete configmap -n redhat-ods-applications anaconda-ce-validation-result
Anaconda イメージストリームを削除します。
oc delete imagestream -n redhat-ods-applications s2i-minimal-notebook-anaconda
イメージのダウンロードを検証した Anaconda ジョブを削除します。
oc delete job -n redhat-ods-applications anaconda-ce-periodic-validator-job-custom-run
Anaconda cronjob の実行に関連するすべての Pod を削除します。
oc get pods n redhat-ods-applications --no-headers=true | awk '/anaconda-ce-periodic-validator-job-custom-run*/'
5.3.4. データサイエンスパイプライン v1 のサポートの削除 リンクのコピーリンクがクリップボードにコピーされました!
これまで、OpenShift AI のデータサイエンスパイプラインは KubeFlow Pipelines v1 をベースにしていました。データサイエンスパイプラインは現在、異なるワークフローエンジンを使用する KubeFlow Pipelines v2 をベースにしています。OpenShift AI では、デフォルトで Data Science Pipelines 2.0 が有効化され、デプロイされます。
Data Science Pipelines 1.0 リソースは、OpenShift AI によってサポートも管理もされなくなりました。ダッシュボードまたは KFP API サーバーから、Data Science Pipelines 1.0 に基づくパイプラインの詳細をデプロイ、表示、または編集することはできなくなりました。
OpenShift AI は、既存の Data Science Pipelines 1.0 インスタンスを 2.0 に自動的に移行しません。OpenShift AI をアップグレードした後、既存のパイプラインとワークベンチを Data Science Pipelines 2.0 で使用する場合は、2024.1 以降のワークベンチイメージバージョンを使用するようにワークベンチを更新してから、パイプラインを Data Science Pipelines 1.0 から 2.0 に手動で移行する必要があります。詳細は、Data Science Pipelines 2.0 への移行 を参照してください。
Data Science Pipelines 2.0 には、Argo Workflows のインストールが含まれています。Red Hat では、Argo Workflows に含まれるこのインスタンスを直接使用することはサポートしていません。Data Science Pipelines 2.0 を備えた OpenShift AI へインストールまたはアップグレードするには、クラスターに Argo Workflows がインストールされていないことを確認してください。
5.3.5. Elyra パイプラインで実行される Python スクリプトのパイプラインログは S3 に保存されない リンクのコピーリンクがクリップボードにコピーされました!
Elyra パイプラインで実行されている Python スクリプトのログは、S3 互換ストレージに保存されなくなりました。OpenShift AI バージョン 2.11 以降では、OpenShift AI ダッシュボードのパイプラインログビューアーでこれらのログを表示できます。
この変更を有効にするには、バージョン 2024.1 以降のワークベンチイメージで提供される Elyra ランタイムイメージを使用する必要があります。
古いバージョンのワークベンチイメージがある場合は、プロジェクトワークベンチの更新 の説明に従って、Version selection フィールドを互換性のあるワークベンチイメージバージョン (例: 2024.1) に更新します。
ワークベンチイメージバージョンを更新すると、パイプラインの既存のランタイムイメージの選択がすべて消去されます。ワークベンチのバージョンを更新したら、ワークベンチ IDE を開き、パイプラインのプロパティーを更新してランタイムイメージを選択します。
5.3.6. NVIDIA GPU Operator が NVIDIA GPU アドオンを置き換える リンクのコピーリンクがクリップボードにコピーされました!
以前は、計算負荷の高いワークロードを支援するグラフィックスプロセッシングユニット (GPU) を有効にするために、ユーザーは NVIDIA GPU アドオンをインストールしていました。OpenShift AI はこのアドオンをサポートしなくなりました。
GPU サポートを有効にするには、NVIDIA GPU Operator をインストールする必要があります。GPU Operator のインストール方法の詳細は、NVIDIA GPU Operator on Red Hat OpenShift Container Platform (外部) を参照してください。
5.3.7. Kubeflow Notebook Controller が JupyterHub を置き換える リンクのコピーリンクがクリップボードにコピーされました!
OpenShift AI 1.15 以前では、基本ワークベンチの作成と起動に JupyterHub が使用されていました。OpenShift AI 1.16 以降では、JupyterHub は含まれなくなり、その機能は Kubeflow Notebook Controller に置き換えられます。
この変更により、次の利点が得られます。
- ユーザーは、最初のリクエストがタイムアウトするまで 5 分以上待つのではなく、すぐにリクエストをキャンセルし、変更を加えて、リクエストを再試行できるようになりました。これは、たとえば、基本ワークベンチが正しく起動しない場合など、要求が失敗したときに、ユーザーがそれほど長く待機しないことを意味します。
- このアーキテクチャーにより、1 ユーザーが複数の基本ワークベンチセッションを使用できなくなるため、今後の機能の可能性が広がります。
- PostgreSQL データベース要件が削除されたことで、OpenShift AI での将来的な拡張環境サポートが可能になります。
ただし、この更新により、次の動作の変更も作成されます。
- クラスター管理者の場合、基本ワークベンチの管理インターフェイスで現在、データサイエンティストユーザーのワークベンチにログインアクセスできません。これは、今後のリリースで追加される予定です。
- データサイエンティストの場合、JupyterHub インターフェイスの URL は無効になりました。OpenShift AI ダッシュボードを指すようにブックマークを更新します。
JupyterLab インターフェイスは変更されておらず、データサイエンティストは引き続き JupyterLab を使用して、通常どおり Jupyter ノートブックファイルを操作できます。
5.3.8. HabanaAI ワークベンチイメージの削除 リンクのコピーリンクがクリップボードにコピーされました!
HabanaAI 1.10 ワークベンチイメージのサポートが削除されました。OpenShift AI バージョン 2.14 以降の新規インストールには、HabanaAI ワークベンチイメージは含まれません。ただし、OpenShift AI を以前のバージョンからアップグレードする場合は、HabanaAI ワークベンチイメージは使用可能なままとなるため、既存の HabanaAI ワークベンチイメージは引き続き機能します。