3.2. 使用数据科学管道存储数据


当您运行数据科学项目时,OpenShift AI 存储管道 YAML 配置文件,并在存储桶 的根目录中 运行工件。包含管道运行工件的目录可能会因您执行管道运行的位置而有所不同。如需更多信息,请参阅下表:

Expand
表 3.1. Pipeline 配置文件和工件存储位置
Pipeline 运行源Pipeline 存储目录运行工件存储目录

OpenShift AI 仪表板

/pipelines/<pipeline_version_id>

示例: /pipelines/1d01c4eb-d2ab-4916-9935-a73a5580f1fb

/<pipeline_name>/<pipeline run_id>

示例: iris- training-pipeline/2g48k8pw-a8ib-4884-9145-h41j7599h3ds

JupyterLab Elyra 扩展

/pipelines/<pipeline_version_id>

/<pipeline_name_timestamp>

示例: /hello-generic-world-0523161704

使用 JupyterLab Elyra 扩展,您还可以设置 对象存储路径前缀

示例: /iris-project/hello-generic-world-0523161704

如果要使用管道中任务生成的现有工件,您可以使用 kfp.dsl.importer 组件从其 URI 导入工件。您只能将这些工件导入到您在管道服务器配置中的 Bucket 字段中定义的 S3 兼容对象存储桶。有关 kfp.dsl.importer 组件的更多信息,请参阅 Special Case: Importer 组件

Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2026 Red Hat
返回顶部