1.3. データサイエンスパイプラインのインポート


OpenShift AI で簡単にデータサイエンスパイプラインの使用を開始するために、パイプラインのコードを含む YAML ファイルをアクティブなパイプラインサーバーにインポートするか、URL から YAML ファイルをインポートできます。このファイルには、Kubeflow コンパイラーを使用してコンパイルされた Kubeflow パイプラインが含まれています。パイプラインをパイプラインサーバーにインポートしたら、パイプライン実行を作成してパイプラインを実行できます。

前提条件

  • Red Hat OpenShift AI にログインしている。
  • OpenShift AI グループを使用している場合は、OpenShift のユーザーグループまたは管理者グループ (rhoai-usersrhoai-admins など) に属している。
  • 設定されたパイプラインサーバーを含む利用可能なデータサイエンスプロジェクトを作成している。
  • Kubeflow コンパイラーを使用してパイプラインをコンパイルしており、結果として得た YAML ファイルにアクセスできる。
  • URL からパイプラインをアップロードする場合、その URL はパブリックにアクセス可能である。

手順

  1. OpenShift AI ダッシュボードから、Data Science Pipelines をクリックします。
  2. Pipelines ページの Project ドロップダウンリストから、パイプラインのインポート先のプロジェクトを選択します。
  3. Import pipeline をクリックします。
  4. Import pipeline ダイアログで、インポートするパイプラインの詳細を入力します。

    1. Pipeline name フィールドに、インポートするパイプラインの名前を入力します。
    2. Pipeline description フィールドに、インポートするパイプラインの説明を入力します。
    3. 次のいずれかのアクションを実行して、パイプラインのインポート元を選択します。

      • ローカルマシンのファイルシステムからパイプラインをアップロードする場合は、Upload a file を選択します。Upload をクリックするか、ファイルをドラッグアンドドロップして、パイプラインをインポートします。
      • URL からパイプラインをアップロードする場合は、Import by url を選択してから、テキストボックスに URL を入力します。
    4. Import pipeline をクリックします。

検証

  • インポートしたパイプラインは、Pipelines ページとプロジェクト詳細ページの Pipelines タブに表示されます。
Red Hat logoGithubredditYoutubeTwitter

詳細情報

試用、購入および販売

コミュニティー

Red Hat ドキュメントについて

Red Hat をお使いのお客様が、信頼できるコンテンツが含まれている製品やサービスを活用することで、イノベーションを行い、目標を達成できるようにします。 最新の更新を見る.

多様性を受け入れるオープンソースの強化

Red Hat では、コード、ドキュメント、Web プロパティーにおける配慮に欠ける用語の置き換えに取り組んでいます。このような変更は、段階的に実施される予定です。詳細情報: Red Hat ブログ.

会社概要

Red Hat は、企業がコアとなるデータセンターからネットワークエッジに至るまで、各種プラットフォームや環境全体で作業を簡素化できるように、強化されたソリューションを提供しています。

Theme

© 2026 Red Hat
トップに戻る