搜索

5.2. 运行由 Python 代码生成的数据科学项目

download PDF

在上一节中,您使用 GUI 管道编辑器创建一个简单的管道。通常最好使用可以控制版本控制的代码创建管道,并与他人共享。kfp SDK 为创建管道提供了一个 Python API。SDK 作为 Python 软件包提供,您可以使用 pip install kfp 命令进行安装。使用这个软件包,您可以使用 Python 代码创建管道,然后将其编译为 YAML 格式。然后,您可以将 YAML 代码导入到 OpenShift AI。

本教程不会将您介绍如何使用 SDK。相反,它会为您提供查看和上传的文件。

  1. 另外,还可导航到 fraud-detection-notebooks 项目的 管道 目录来查看 Jupyter 环境中提供的 Python 代码。它包含以下文件:

    • 7_get_data_train_upload.py 是主管道代码。
    • get_data.py , training_model.py, 和 upload.py 是管道的三个组件。
    • build.sh 是一个构建管道并创建 YAML 文件的脚本。

      为方便起见,build.sh 脚本的输出在 7_get_data_train_upload.yaml 文件中提供。7_get_data_train_upload.yaml 输出文件位于顶级 fraud-detection 目录中。

  2. 右键点击 7_get_data_train_upload.yaml 文件,然后点 Download
  3. 7_get_data_train_upload.yaml 文件上传到 OpenShift AI。

    1. 在 OpenShift AI 仪表板中,导航到您的数据科学项目页面。点 Pipelines 选项卡,然后点 Import pipeline

      DSP 管道导入
    2. Pipeline 名称和 Pipeline 描述输入值
    3. Upload,然后从本地文件中选择 7_get_data_train_upload.yaml,以上传管道。

      DSP pipline import upload
    4. Import pipeline 导入并保存管道。

      管道显示在管道列表中。

  4. 展开管道项目,点操作菜单(RCU),然后选择 View run

    DSP pipline 视图运行
  5. Create run
  6. Create run 页面中,提供以下值:

    1. 对于 Name,键入任何名称,例如 Run 1
    2. 对于 Pipeline,选择您上传的管道。

      您可以将其他字段保留默认值。

      创建 Pipeline Run 表单
  7. 单击 Create 以创建该运行。

    新运行会立即启动。Details 页面显示在 OpenShift AI 中运行的 Python 中创建的管道。

    Pipeline 运行进行
Red Hat logoGithubRedditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

© 2024 Red Hat, Inc.