1.3. データサイエンスパイプラインのインポート
OpenShift AI で簡単にデータサイエンスパイプラインの使用を開始するために、パイプラインのコードを含む YAML ファイルをアクティブなパイプラインサーバーにインポートするか、URL から YAML ファイルをインポートできます。このファイルには、Kubeflow コンパイラーを使用してコンパイルされた Kubeflow パイプラインが含まれています。パイプラインをパイプラインサーバーにインポートしたら、パイプライン実行を作成してパイプラインを実行できます。
前提条件
- Red Hat OpenShift AI にログインしている。
-
OpenShift AI グループを使用している場合は、OpenShift のユーザーグループまたは管理者グループ (
rhoai-usersやrhoai-adminsなど) に属している。 - 設定されたパイプラインサーバーを含む利用可能なデータサイエンスプロジェクトを作成している。
- Kubeflow コンパイラーを使用してパイプラインをコンパイルしており、結果として得た YAML ファイルにアクセスできる。
- URL からパイプラインをアップロードする場合、その URL はパブリックにアクセス可能である。
手順
- OpenShift AI ダッシュボードから、Data Science Pipelines をクリックします。
- Pipelines ページの Project ドロップダウンリストから、パイプラインのインポート先のプロジェクトを選択します。
- Import pipeline をクリックします。
Import pipeline ダイアログで、インポートするパイプラインの詳細を入力します。
- Pipeline name フィールドに、インポートするパイプラインの名前を入力します。
- Pipeline description フィールドに、インポートするパイプラインの説明を入力します。
次のいずれかのアクションを実行して、パイプラインのインポート元を選択します。
- ローカルマシンのファイルシステムからパイプラインをアップロードする場合は、Upload a file を選択します。Upload をクリックするか、ファイルをドラッグアンドドロップして、パイプラインをインポートします。
- URL からパイプラインをアップロードする場合は、Import by url を選択してから、テキストボックスに URL を入力します。
- Import pipeline をクリックします。
検証
- インポートしたパイプラインは、Pipelines ページとプロジェクト詳細ページの Pipelines タブに表示されます。