1.3. 常用术语表
此术语表定义了 Red Hat OpenShift AI 的常见术语。
- 加速器
- 在高性能计算中,一个专门的电路用于从 CPU 获取一些计算负载,从而提高了系统的效率。例如,在深入学习中,GPU 加速的计算通常会在主应用程序从 CPU 运行时将计算工作负载部分卸载到 GPU。
- 智能(AI)
- 以模型形式获取、流程、创建和应用知识的能力,以做出预测、建议或决策。
- bias 检测
- 计算公平指标以检测何时根据特定属性提供非公平结果的过程。
- 自定义资源 (CR)
- 通过 Kubernetes CustomResourceDefinition API 实施的资源。自定义资源与内置的 Kubernetes 资源(如 pod 和服务资源)不同。每个 CR 都是一个 API 组的一部分。
- 自定义资源定义(CRD)
-
在 Red Hat OpenShift 中,自定义资源定义(CRD)在集群中定义了一个新的、唯一的对象
Kind
,并允许 Kubernetes API 服务器处理其整个生命周期。 - 连接
- 此配置存储了从数据科学项目连接到 S3 兼容对象存储、数据库或 OCI 兼容容器 registry 所需的参数。
- 连接类型
- 从数据科学项目连接的外部源类型,如 OCI 兼容容器 registry、兼容 S3 的对象存储或统一资源标识符(URI)。
- 数据科学项目
- 数据科学家和 AI 工程师用来自动化管道的工作流引擎,如模型培训和评估管道。数据科学项目还包括试验跟踪功能、工件存储和版本控制。
- 数据科学项目
- 用于整理数据科学工作的 OpenShift 项目。每个项目限定为自己的 Kubernetes 命名空间。
- 断开连接的环境
- 受限网络中的环境,没有有效的互联网连接。
- 分布式工作负载
- 在 OpenShift 集群中在多个节点之间同时运行的数据科学工作负载。
- 微调
- 通过执行其他培训,调整预盘模型来执行特定任务的过程。调优可能涉及(1)更新模型的现有参数,称为完全调优,或者(2)更新模型现有参数的子集,或在模型中添加新参数并对其进行培训,同时释放模型的现有参数,称为参数效率的调优。
- 图形处理单元(GPU)
- 旨在快速操作和更改内存的专用处理器,以便在旨在输出到显示的帧缓冲区中加快镜像的创建。由于并行处理功能,在机器学习中大量使用 GPU。
- inference
- 使用受培训的 AI 模型根据模型提供的输入数据生成预测或结论的过程。
- inference 服务器
- 执行推测的服务器。推论服务器通过机器学习模型提供输入请求并返回输出。
- 大型语言模型(LLM)
- 具有大量参数的语言模型,获得大量文本培训。
- 机器学习(ML)
- 人工智能(AI)和计算机科学的分支,专注于使用数据和算法来区分人类学习的方式,逐渐改进 AI 模型的准确性。
- model
- 在机器学习上下文中,已对一个数据集进行了培训并测试的一系列功能和算法,以提供预测或决策。
- 模型 registry
- 中央存储库,包含与机器学习模型相关的元数据,从最初到部署。元数据范围从部署环境和项目来源等高级别信息的范围,到类似培训超参数、性能指标和部署事件等细节。
- 模型服务器
- 托管机器学习模型的容器,公开 API 来处理传入请求、执行推测和返回模型预测。
- model-serving 运行时
- 有助于创建部署机器学习模型模型服务器的组件或框架,并为推测而优化构建 API。
- MLOps
- 数据科学家和操作专业人员之间的协作,以帮助管理生产机器学习(或深入学习)生命周期。MLOps 期望提高自动化并提高生产 ML 的质量,同时专注于业务和监管要求。它涉及建模开发、培训、验证、部署、监控和管理,并使用 CI/CD 等方法。
- 笔记本接口
- 包含可执行代码的交互式文档、该代码的描述性文本以及运行的任何代码的结果。
- 对象存储
- 用于存储云中的数据的方法,其中数据存储在存储池或对象中,它们不使用文件层次结构但存储相同级别的所有对象。
- OpenShift Container Platform 集群
- 组物理计算机,其中包含构建和运行容器化应用所需的控制器、Pod、服务和配置。
- 持久性存储
- 在组件间保留文件、模型或其他工件(如模型部署、数据科学管道和工作台)的持久性卷。
- 持久性卷声明(PVC)
- 持久性卷声明(PVC)是用户在集群中存储的请求。
- 量化
- 压缩基础模型权重的方法,以加快推断和减少内存需求。
- serving
- 将受培训机器学习模型托管为网络可访问的服务的过程。真实的应用程序可以使用 REST 或 gRPC API 向服务发送 inference 请求,并接收预测。
- ServingRuntime
- 定义(CRD)为一个或多个特定模型格式提供服务的 pod 模板的自定义资源定义(CRD)。每个 ServingRuntime CRD 都定义了关键信息,如运行时的容器镜像以及运行时支持的模型格式列表。运行时的其他配置设置可以通过容器规格中的环境变量实现。它还根据需要从磁盘动态加载和卸载模型到内存中,并公开 gRPC 服务端点,以推断到加载的模型的请求。
- vLLM
- 一个高吞吐量且高效的 inference 引擎,用于运行与流行模型和框架集成的大型语言模型。
- 工作台
- 用于开发和使用 ML 模型的隔离环境。工作台通常包含集成开发环境(IDE),如 JupyterLab、RStudio 和 Visual Studio Code。
- workbench 镜像
- 镜像,包括模型开发所需的预安装工具和库。包括用于开发机器学习(ML)模型的 IDE。
- YAML
- 人类可读的数据序列化语言。它通常用于配置文件和传输数据的应用程序中。