1.3. 导入数据科学项目


为了帮助您开始使用 OpenShift AI 中的数据科学管道,您可以将包含管道代码的 YAML 文件导入到活跃的管道服务器,或者从 URL 导入 YAML 文件。此文件包含一个使用 Kubeflow 编译器编译的 Kubeflow 管道。将管道导入到管道服务器后,您可以通过创建管道运行来执行管道。

先决条件

  • 您已登陆到 Red Hat OpenShift AI。
  • 如果您使用 OpenShift AI 组,则作为 OpenShift 中的用户组或 admin 组(如 rhoai-usersrhoai-admins )的一部分。
  • 您之前已创建了可用的数据科学项目,并包含配置的管道服务器。
  • 已使用 Kubeflow 编译器编译了管道,并可访问生成的 YAML 文件。
  • 如果您要从 URL 上传管道,则 URL 可以公开访问。

流程

  1. 在 OpenShift AI 仪表板中点 Data Science Pipelines
  2. Pipelines 页面中,从 Project 下拉列表中选择您要导入管道的项目。
  3. Import pipeline
  4. Import pipeline 对话框中,输入您要导入的管道的详情。

    1. Pipeline name 字段中输入您要导入的管道的名称。
    2. Pipeline description 字段中,输入要导入的管道的描述。
    3. 通过执行以下操作之一,选择您要从中导入管道的位置:

      • 选择 Upload a file 以从本地机器的文件系统上传管道。点 Upload 或通过拖放文件来导入管道。
      • 选择 Import by url 将管道从 URL 上传,然后在文本框中输入 URL。
    4. Import pipeline

验证

  • 您导入的管道会出现在 Pipelines 页面中,以及项目详情页面的 Pipelines 标签页中。
返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat