4.3. JupyterLab でのパイプラインの使用


4.3.1. JupyterLab のパイプラインの概要

Elyra を使用して、JupyterLab で視覚的なエンドツーエンドのパイプラインワークフローを作成できます。Elyra は、OpenShift AI で実行できるパイプラインワークフローを作成するための Pipeline Editor を提供する JupyterLab の拡張機能です。

JupyterLab でパイプラインを使用する前に、OpenShift Pipelines Operator をインストールする必要があります。OpenShift Pipelines Operator の互換性のあるバージョンのインストールの詳細は、Red Hat OpenShift Pipelines リリースノート および Red Hat OpenShift AI: サポートされる構成 を参照してください。

以下のノートブックイメージのいずれかの最新バージョンを作成すると、JupyterLab 内の Elyra 拡張にアクセスできます。

  • Standard Data Science
  • PyTorch
  • TensorFlow
  • TrustyAI

Pipeline Editor を使用してパイプラインを視覚的に設計できるため、パイプラインを作成および実行するのに最小限のコーディングが必要になります。Elyra の詳細は、Elyra ドキュメンテーション を参照してください。Pipeline Editor の詳細は、Visual Pipeline Editor を参照してください。パイプラインを作成したら、JupyterLab でローカルに実行することも、OpenShift AI のデータサイエンスパイプラインを使用してリモートで実行することもできます。

パイプライン作成プロセスは、次のタスクで構成されます。

  • ワークベンチを含むデータサイエンスプロジェクトを作成する。
  • パイプラインサーバーを作成する。
  • JupyterLab の Pipeline Editor で新規パイプラインを作成する。
  • Python ノートブックまたは Python スクリプトを追加し、それらのランタイムプロパティーを定義してパイプラインを開発する。
  • 実行の依存関係を定義する。
  • Pipeline を実行するか、エクスポートする。

JupyterLab でパイプラインを実行するには、パイプラインインスタンスにランタイム設定が含まれている必要があります。ランタイム設定は、パイプラインインスタンスと S3 互換クラウドストレージの接続情報を定義します。

データサイエンスプロジェクトの一部としてワークベンチを作成すると、デフォルトのランタイム設定が自動的に作成されます。ただし、OpenShift AI ダッシュボードの Jupyter タイルからノートブックを作成する場合は、JupyterLab でパイプラインを実行する前にランタイム設定を作成する必要があります。ランタイム設定の詳細は、Runtime Configuration を参照してください。前提条件として、ワークベンチを作成する前に、ワークベンチと同じデータサイエンスプロジェクト内にパイプラインサーバーを作成および設定していることを確認します。

S3 互換クラウドストレージを使用すると、ノートブックやスクリプトの実行中にデータを利用できるようになります。クラウドストレージには、JupyterLab を実行するデプロイメント内のマシン、および Data Science Pipelines をホストするクラスターからアクセスできる必要があります。JupyterLab でパイプラインを作成して実行する前に、s3 互換ストレージの認証情報がすぐに利用できることを確認してください。

4.3.2. パイプラインエディターへのアクセス

Elyra を使用して、JupyterLab で視覚的なエンドツーエンドのパイプラインワークフローを作成できます。Elyra は、OpenShift AI で実行できるパイプラインワークフローを作成するための Pipeline Editor を提供する JupyterLab の拡張機能です。

前提条件

  • OpenShift Pipelines Operator がインストールされている。
  • Red Hat OpenShift AI にログインしている。
  • 特殊な OpenShift AI グループを使用している場合は、OpenShift のユーザーグループ、または、管理者グループ (rhoai-usersrhoai-admins など) に属している。
  • データサイエンスプロジェクトを作成した。
  • Standard Data Science ノートブックイメージを使用してワークベンチを作成しました。
  • ワークベンチを含むデータサイエンスプロジェクト内にパイプラインサーバーを作成して設定している。
  • Elyra 拡張機能 (Standard データサイエンス、TensorFlow、TrustyAI、PyTorch、または HabanaAI) を含むノートブックイメージから Jupyter サーバーを作成し、起動している。
  • S3 互換ストレージにアクセスできる。

手順

  1. JupyterLab を開いたら、JupyterLab ランチャーが自動的に表示されることを確認します。
  2. JupyterLab ランチャーの Elyra セクションで、Pipeline Editor タイルをクリックします。

    Pipeline Editor が開きます。

検証

  • JupyterLab で Pipeline Editor を表示できます。

4.3.3. ランタイム設定の作成

データサイエンスプロジェクトの一部としてワークベンチを作成すると、デフォルトのランタイム設定が自動的に作成されます。ただし、OpenShift AI ダッシュボードの Jupyter タイルからノートブックを作成する場合は、JupyterLab でパイプラインを実行する前にランタイム設定を作成する必要があります。これにより、パイプラインインスタンスと S3 互換クラウドストレージの接続情報を指定できます。

前提条件

  • OpenShift Pipelines Operator がインストールされている。
  • Red Hat OpenShift AI にログインしている。
  • 特殊な OpenShift AI グループを使用している場合は、OpenShift のユーザーグループ、または、管理者グループ (rhoai-usersrhoai-admins など) に属している。
  • S3 互換クラウドストレージにアクセスできる。
  • ワークベンチを含むデータサイエンスプロジェクトを作成している。
  • ワークベンチを含むデータサイエンスプロジェクト内にパイプラインサーバーを作成して設定している。
  • Elyra 拡張機能 (Standard データサイエンス、TensorFlow、TrustyAI、PyTorch、または HabanaAI) を含むノートブックイメージから Jupyter サーバーを作成し、起動している。

手順

  1. JupyterLab の左側のサイドバーで、Runtimes ( The Runtimes icon ) をクリックします。
  2. Create new runtime configuration ボタン ( Create new runtime configuration ) をクリックします。

    Add new Data Science Pipelines runtime configuration ページが開きます。

  3. 関連フィールドに入力してランタイム設定を完了します。

    1. Display Name フィールドに、ランタイム設定の名前を入力します。
    2. オプション: Description フィールドに、ランタイム設定を定義する説明を入力します。
    3. オプション: Tags フィールドで、Add Tag をクリックして、パイプラインインスタンスのカテゴリーを定義します。タグの名前を入力し、Enter キーを押します。
    4. データサイエンスパイプラインの認証情報を定義します。

      1. Data Science Pipelines API Endpoint フィールドに、データサイエンスパイプラインの API エンドポイントを入力します。このフィールドにはパイプラインの namespace を指定しないでください。
      2. Public Data Science Pipelines API Endpoint フィールドに、データサイエンスパイプラインのパブリック API エンドポイントを入力します。

        重要

        ダッシュボードの Data Science Pipelines Runs ページから Data Science Pipelines API エンドポイントを取得できます。関連するエンドポイントをコピーし、Public Data Science Pipelines API Endpoint フィールドに入力します。

      3. オプション: Data Science Pipelines User Namespace フィールドに、パイプラインを実行するための関連するユーザー namespace を入力します。
      4. Data Science Pipelines engine リストから、Tekton を選択します。
      5. Authentication Type リストから、パイプラインの認証に必要な認証タイプを選択します。

        重要

        ダッシュボードの Jupyter タイルから直接ノートブックを作成した場合は、Authentication Type リストから EXISTING_BEARER_TOKEN を選択します。

      6. Data Science Pipelines API Endpoint Username フィールドに、認証タイプに必要なユーザー名を入力します。
      7. Data Science Pipelines API Endpoint Password Or Token に、認証タイプに必要なパスワードまたはトークンを入力します。

        重要

        Data Science Pipelines API エンドポイントトークンを取得するには、OpenShift Web コンソールの右上隅にあるユーザー名をクリックし、Copy login command を選択します。ログインしたら、Display token をクリックし、Log in with this token コマンドから --token= の値をコピーします。

    5. S3 互換ストレージの接続情報を定義します。

      1. Cloud Object Storage Endpoint フィールドに、S3 互換ストレージのエンドポイントを入力します。Amazon s3 エンドポイントの詳細は、Amazon Simple Storage Service エンドポイントおよびクォータ を参照してください。
      2. オプション: Public Cloud Object Storage Endpoint フィールドに、S3 互換ストレージの URL を入力します。
      3. Cloud Object Storage Bucket Name フィールドに、パイプラインアーティファクトが保存されているバケットの名前を入力します。バケット名が存在しない場合は、自動的に作成されます。
      4. Cloud Object Storage Authentication Type リストから、S3 互換クラウドストレージへのアクセスに必要な認証タイプを選択します。AWS S3 バケットを使用する場合は、一覧から KUBERNETES_SECRET を選択します。
      5. Cloud Object Storage Credentials Secret フィールドに、ストレージのユーザー名とパスワードを含むシークレットを入力します。このシークレットは、該当する場合、関連するユーザー namespace で定義されます。さらに、パイプラインランタイムをホストするクラスターに保存する必要があります。
      6. Cloud Object Storage Username フィールドに、S3 互換クラウドストレージに接続するためのユーザー名を入力します (該当する場合)。AWS S3 バケットを使用する場合は、AWS Secret Access Key ID を入力します。
      7. Cloud Object Storage Password フィールドに、S3 互換クラウドストレージに接続するためのパスワードを入力します (該当する場合)。AWS S3 バケットを使用する場合は、AWS Secret Access Key を入力します。
    6. Save & Close をクリックします。

検証

  • 作成したランタイム設定は、JupyterLab の左側のサイドバーにある Runtimes タブ ( The Runtimes icon ) をクリックします。

4.3.4. ランタイム設定の更新

ランタイム設定が正確で更新されていることを確認するには、既存のランタイム設定の設定を変更します。

前提条件

  • OpenShift Pipelines Operator がインストールされている。
  • Red Hat OpenShift AI にログインしている。
  • 特殊な OpenShift AI グループを使用している場合は、OpenShift のユーザーグループ、または、管理者グループ (rhoai-usersrhoai-admins など) に属している。
  • S3 互換ストレージにアクセスできる。
  • ワークベンチを含むデータサイエンスプロジェクトを作成している。
  • ワークベンチを含むデータサイエンスプロジェクト内にパイプラインサーバーを作成して設定している。
  • 以前に作成したランタイム設定が JupyterLab インターフェイスで利用できる。
  • Elyra 拡張機能 (Standard データサイエンス、TensorFlow、TrustyAI、PyTorch、または HabanaAI) を含むノートブックイメージから Jupyter サーバーを作成し、起動している。

手順

  1. JupyterLab の左側のサイドバーで、Runtimes ( The Runtimes icon ) をクリックします。
  2. 更新するランタイム設定の上にカーソルを置き、Edit ボタン ( Edit runtime configuration ) をクリックします。

    Data Science Pipelines runtime configuration ページが開きます。

  3. 関連フィールドに入力してランタイム設定を更新します。

    1. 必要に応じて、Display Name フィールドでランタイム設定の名前を更新します。
    2. オプション: 必要に応じて、Description フィールドでランタイム設定の説明を更新します。
    3. オプション: Tags フィールドで、Add Tag をクリックして、パイプラインインスタンスのカテゴリーを定義します。タグの名前を入力し、Enter キーを押します。
    4. データサイエンスパイプラインの認証情報を定義します。

      1. Data Science Pipelines API Endpoint フィールドで、データサイエンスパイプラインの API エンドポイントを更新します (該当する場合)。このフィールドにはパイプラインの namespace を指定しないでください。
      2. Public Data Science Pipelines API Endpoint フィールドで、データサイエンスパイプラインの API エンドポイントを更新します (該当する場合)。
      3. オプション: 該当する場合、Data Science Pipelines User Namespace フィールドで、パイプラインを実行するために関連するユーザー namespace を更新します。
      4. Data Science Pipelines engine リストから、Tekton を選択します。
      5. 該当する場合は、Authentication Type リストから、パイプラインの認証に必要な新しい認証タイプを選択します。

        重要

        ダッシュボードの Jupyter タイルから直接ノートブックを作成した場合は、Authentication Type リストから EXISTING_BEARER_TOKEN を選択します。

      6. Data Science Pipelines API Endpoint Username フィールドで、認証タイプに必要なユーザー名を更新します (該当する場合)。
      7. Data Science Pipelines API Endpoint Password Or Token で、認証タイプに必要なパスワードまたはトークンを更新します (該当する場合)。

        重要

        Data Science Pipelines API エンドポイントトークンを取得するには、OpenShift Web コンソールの右上隅にあるユーザー名をクリックし、Copy login command を選択します。ログインしたら、Display token をクリックし、Log in with this token コマンドから --token= の値をコピーします。

    5. S3 互換ストレージの接続情報を定義します。

      1. 該当する場合は、Cloud Object Storage Endpoint フィールドで、S3 互換ストレージのエンドポイントを更新します。Amazon s3 エンドポイントの詳細は、Amazon Simple Storage Service エンドポイントおよびクォータ を参照してください。
      2. オプション: Public Cloud Object Storage Endpoint フィールドで、S3 互換ストレージの URL を更新します (該当する場合)。
      3. 必要に応じて、Cloud Object Storage Bucket Name フィールドで、パイプラインアーティファクトが保存されているバケットの名前を更新します。バケット名が存在しない場合は、自動的に作成されます。
      4. 該当する場合は、Cloud Object Storage Authentication Type リストから、S3 互換クラウドストレージへのアクセスに必要な認証タイプを更新します。AWS S3 バケットを使用する場合は、リストから USER_CREDENTIALS を選択する必要があります。
      5. オプション: Cloud Object Storage Credentials Secret フィールドで、ストレージのユーザー名とパスワードを含むシークレットを更新します (該当する場合)。このシークレットは、関連するユーザー namespace で定義されます。パイプラインランタイムをホストするクラスターにシークレットを保存する必要があります。
      6. オプション: Cloud Object Storage Username フィールドで、S3 互換クラウドストレージに接続するためのユーザー名を更新します (該当する場合)。AWS S3 バケットを使用する場合は、AWS Secret Access Key ID を更新します。
      7. オプション: Cloud Object Storage Password フィールドで、S3 互換クラウドストレージに接続するためのパスワードを更新します (該当する場合)。AWS S3 バケットを使用する場合は、AWS Secret Access Key を更新します。
    6. Save & Close をクリックします。

検証

  • 更新したランタイム設定は、JupyterLab の左側のサイドバーにある Runtimes タブ ( The Runtimes icon ) をクリックします。

4.3.5. ランタイム設定の削除

ランタイム設定の使用が終了したら、JupyterLab インターフェイスからランタイム設定を削除できます。ランタイム設定を削除した後は、別のランタイム設定を作成するまで JupyterLab でパイプラインを実行できません。

前提条件

  • OpenShift Pipelines Operator がインストールされている。
  • Red Hat OpenShift AI にログインしている。
  • 特殊な OpenShift AI グループを使用している場合は、OpenShift のユーザーグループ、または、管理者グループ (rhoai-usersrhoai-admins など) に属している。
  • ワークベンチを含むデータサイエンスプロジェクトを作成している。
  • ワークベンチを含むデータサイエンスプロジェクト内にパイプラインサーバーを作成して設定している。
  • 以前に作成したランタイム設定が JupyterLab インターフェイスに表示されている。
  • Elyra 拡張機能 (Standard データサイエンス、TensorFlow、TrustyAI、PyTorch、または HabanaAI) を含むノートブックイメージから Jupyter サーバーを作成し、起動している。

手順

  1. JupyterLab の左側のサイドバーで、Runtimes ( The Runtimes icon ) をクリックします。
  2. 削除するランタイム設定の上にカーソルを置き、Delete Item ボタン ( Delete item ) をクリックします。

    実行時設定の削除を確認するダイアログボックスが表示されます。

  3. OK をクリックします。

検証

  • 削除したランタイム設定は、JupyterLab の左側のサイドバーにある Runtimes タブ ( The Runtimes icon ) に表示されなくなります。

4.3.6. ランタイム設定の複製

全体的に同様の値を持つランタイム設定が再作成されないようにするために、JupyterLab インターフェイスで既存のランタイム設定を複製できます。

前提条件

  • OpenShift Pipelines Operator がインストールされている。
  • Red Hat OpenShift AI にログインしている。
  • 特殊な OpenShift AI グループを使用している場合は、OpenShift のユーザーグループ、または、管理者グループ (rhoai-usersrhoai-admins など) に属している。
  • ワークベンチを含むデータサイエンスプロジェクトを作成している。
  • ワークベンチを含むデータサイエンスプロジェクト内にパイプラインサーバーを作成して設定している。
  • 以前に作成したランタイム設定が JupyterLab インターフェイスに表示されている。
  • Elyra 拡張機能 (Standard データサイエンス、TensorFlow、TrustyAI、PyTorch、または HabanaAI) を含むノートブックイメージから Jupyter サーバーを作成し、起動している。

手順

  1. JupyterLab の左側のサイドバーで、Runtimes ( The Runtimes icon ) をクリックします。
  2. 複製するランタイム設定の上にカーソルを置き、Duplicate ボタン ( Duplicate ) をクリックします。

検証

  • 複製したランタイム設定が、JupyterLab の左側のサイドバーにある Runtimes タブ ( The Runtimes icon ) をクリックします。

4.3.7. JupyterLab でパイプラインの実行

Pipeline Editor ユーザーインターフェイスから JupyterLab で作成したパイプラインを実行できます。パイプラインを実行する前に、データサイエンスプロジェクトとパイプラインサーバーを作成する必要があります。パイプラインサーバーを作成したら、パイプラインサーバーと同じプロジェクト内にワークベンチを作成する必要があります。JupyterLab のパイプラインインスタンスにはランタイム設定が含まれている必要があります。データサイエンスプロジェクトの一部としてワークベンチを作成すると、デフォルトのランタイム設定が自動的に作成されます。ただし、OpenShift AI ダッシュボードの Jupyter タイルからノートブックを作成する場合は、JupyterLab でパイプラインを実行する前にランタイム設定を作成する必要があります。ランタイム設定は、パイプラインインスタンスと S3 互換クラウドストレージの接続情報を定義します。

前提条件

  • OpenShift Pipelines Operator がインストールされている。
  • Red Hat OpenShift AI にログインしている。
  • 特殊な OpenShift AI グループを使用している場合は、OpenShift のユーザーグループ、または、管理者グループ (rhoai-usersrhoai-admins など) に属している。
  • S3 互換ストレージにアクセスできる。
  • JupyterLab でパイプラインを作成している。
  • JupyterLab の Pipeline Editor でパイプラインを開いている。
  • パイプラインインスタンスにはランタイム設定が含まれている。
  • ワークベンチを含むデータサイエンスプロジェクト内にパイプラインサーバーを作成して設定している。
  • Elyra 拡張機能 (Standard データサイエンス、TensorFlow、TrustyAI、PyTorch、または HabanaAI) を含むノートブックイメージから Jupyter サーバーを作成し、起動している。

手順

  1. Pipeline Editor ユーザーインターフェイスで Run Pipeline ( The Runtimes icon ) をクリックします。

    Run Pipeline ダイアログが表示されます。Pipeline Name フィールドには、パイプラインファイル名が自動的に入力されます。

    重要

    一意のパイプライン名を入力する必要があります。入力するパイプライン名は、以前に実行されたパイプラインの名前と一致してはなりません。

  2. パイプライン実行の設定を定義します。

    1. Runtime Configuration リストから、パイプラインを実行するための関連するランタイム設定を選択します。
    2. オプション: 必要に応じて、パイプラインパラメーターを設定します。パイプラインにパイプラインパラメーターを参照するノードが含まれている場合は、デフォルトのパラメーター値を変更できます。パラメーターが必須でデフォルト値がない場合は、値を入力する必要があります。
  3. OK をクリックします。

検証

  • パイプライン実行の出力アーティファクトを表示できます。アーティファクトは、指定されたオブジェクトストレージバケットに保存されます。

4.3.8. JupyterLab でのパイプラインのエクスポート

JupyterLab で作成したパイプラインをエクスポートできます。パイプラインをエクスポートすると、パイプラインは後で実行できるように準備されますが、すぐにアップロードまたは実行されるわけではありません。エクスポートプロセス中に、パッケージの依存関係はすべて S3 互換ストレージにアップロードされます。また、ターゲットランタイム用にパイプラインコードが生成されます。

パイプラインをエクスポートする前に、データサイエンスプロジェクトとパイプラインサーバーを作成する必要があります。パイプラインサーバーを作成したら、パイプラインサーバーと同じプロジェクト内にワークベンチを作成する必要があります。さらに、JupyterLab のパイプラインインスタンスにはランタイム設定が含まれている必要があります。データサイエンスプロジェクトの一部としてワークベンチを作成すると、デフォルトのランタイム設定が自動的に作成されます。ただし、OpenShift AI ダッシュボードの Jupyter タイルからノートブックを作成する場合は、JupyterLab でパイプラインをエクスポートする前にランタイム設定を作成する必要があります。ランタイム設定は、パイプラインインスタンスと S3 互換クラウドストレージの接続情報を定義します。

前提条件

  • OpenShift Pipelines Operator がインストールされている。
  • Red Hat OpenShift AI にログインしている。
  • 特殊な OpenShift AI グループを使用している場合は、OpenShift のユーザーグループ、または、管理者グループ (rhoai-usersrhoai-admins など) に属している。
  • ワークベンチを含むデータサイエンスプロジェクトを作成している。
  • ワークベンチを含むデータサイエンスプロジェクト内にパイプラインサーバーを作成して設定している。
  • S3 互換ストレージにアクセスできる。
  • JupyterLab でパイプラインを作成している。
  • JupyterLab の Pipeline Editor でパイプラインを開いている。
  • パイプラインインスタンスにはランタイム設定が含まれている。
  • Elyra 拡張機能 (Standard データサイエンス、TensorFlow、TrustyAI、PyTorch、または HabanaAI) を含むノートブックイメージから Jupyter サーバーを作成し、起動している。

手順

  1. Pipeline Editor ユーザーインターフェイスで、Export Pipeline ( Export pipeline ) をクリックします。

    Export Pipeline ダイアログが表示されます。Pipeline Name フィールドには、パイプラインファイル名が自動的に入力されます。

  2. パイプラインをエクスポートするための設定を定義します。

    1. Runtime Configuration リストから、パイプラインをエクスポートする関連するランタイム設定を選択します。
    2. Export Pipeline as から適切なファイル形式を選択します。
    3. Export Filename フィールドに、エクスポートされたパイプラインのファイル名を入力します。
    4. Replace if file already exists チェックボックスをオンにして、エクスポートするパイプラインと同じ名前の既存のファイルを置換します。
    5. オプション: 必要に応じて、パイプラインパラメーターを設定します。パイプラインにパイプラインパラメーターを参照するノードが含まれている場合は、デフォルトのパラメーター値を変更できます。パラメーターが必須でデフォルト値がない場合は、値を入力する必要があります。
  3. OK をクリックします。

検証

  • 指定したオブジェクトストレージバケットにエクスポートしたパイプラインを含むファイルを表示できます。
トップに戻る
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2025 Red Hat