5.2. 运行从 Python 代码生成的数据科学管道


在上一节中,您可以使用 GUI 管道编辑器创建一个简单的管道。通常,使用可以版本控制和与他人共享的代码创建管道。Kubeflow 管道(kfp) SDK 为创建管道提供了一个 Python API。SDK 可作为 Python 软件包提供,您可以使用 pip install kfp 命令安装。使用这个软件包,您可以使用 Python 代码创建管道,然后将其编译为 YAML 格式。然后,您可以将 YAML 代码导入到 OpenShift AI 中。

本教程不描述如何使用 SDK 的详细信息。相反,它为您提供了查看和上传的文件。

  1. (可选)通过导航到 fraud-detection-notebooks 项目的 管道 目录来查看 JupyterLab 环境中提供的 Python 代码。它包含以下文件:

    • 7_get_data_train_upload.py 是主管道代码。
    • build.sh 是一个构建管道并创建 YAML 文件的脚本。

      为方便起见,build.sh 脚本的输出在 7_get_data_train_upload.yaml 文件中提供。7_get_data_train_upload.yaml 输出文件位于顶级 fraud-detection 目录中。

  2. 右键点击 7_get_data_train_upload.yaml 文件,然后点 Download
  3. 7_get_data_train_upload.yaml 文件上传到 OpenShift AI。

    1. 在 OpenShift AI 仪表板中,导航到您的数据科学项目页面。点 Pipelines 选项卡,然后点 Import pipeline
    2. 输入 Pipeline 名称和 Pipeline 描述 的值。
    3. Upload,然后从您的本地文件选择 7_get_data_train_upload.yaml 来上传管道。

    4. Import pipeline 导入并保存管道。

      管道显示在图形视图中。

  4. 选择 Actions Create run
  5. Create run 页面中,提供以下值:

    1. 对于 Experiment,请将值 保留为默认值
    2. 对于" 名称 ",请输入任何名称,例如 Run 1
    3. 对于 Pipeline,选择您上传的管道。

      您可以将其他字段保留为默认值。

  6. Create run 创建运行。

    新的运行立即启动。

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat