Red Hat AI 简介
Red Hat AI 是一个产品和服务产品组合,可加快跨混合云环境的 AI 解决方案开发和部署
摘要
第 1 章 红帽 AI 简介 复制链接链接已复制到粘贴板!
红帽 AI 是一个产品和服务产品组合,可加速产品面市时间,并降低跨混合云环境提供智能(AI)解决方案的操作成本。使用红帽 AI,您可以使用与企业相关的数据有效调优小型适应性模型,并灵活地部署存储您的数据模型。
Red Hat AI 可帮助您大规模管理和监控预测和一般性 AI (gen AI)模型(从单服务器部署到高度分布式平台)的生命周期。该产品组合由开源技术支持,以及专注于不同基础架构上的性能、稳定性和 GPU 支持的合作伙伴生态系统。
使用红帽 AI,您可以部署和管理 AI 工作负载策略的预测和 gen AI 模型。该产品组合支持 AI 采用之旅的每个阶段,从初始单服务器部署到高度扩展的分布式平台架构。它还为多个硬件加速器、原始设备制造商(OEM)和云提供商提供支持,以在各种基础架构中提供稳定、优化和高性能平台。
访问最新的创新由红帽 AI 生态系统补充,它提供了经过测试、受支持且经认证的合作伙伴产品和服务,它们与红帽技术合作,并帮助您解决业务和技术挑战。
Red Hat AI 包括:
- Red Hat Enterprise Linux AI
针对大型语言模型(LLM)开发、测试和部署的基础模型平台,提供优化的推测功能。
如果您尚未定义您的业务用例,Red Hat Enterprise Linux AI 会在您的 AI 之初为您提供支持。AI 平台构建为开发、测试和运行 generative AI (gen AI)基础模型。
- Red Hat OpenShift AI
集成的 MLOps 平台,可帮助您在混合云和边缘环境中管理智能和机器学习(AI/ML)生命周期,从而帮助您更快地将模型从试验到生产环境。
如果您准备好扩展 AI 应用程序,则 Red Hat OpenShift AI 可以支持。此 AI 平台可帮助管理混合云环境中的预测和通用 AI 模型的生命周期。
- Red Hat AI Inference Server
- 使用 LLMs 优化服务和推断的容器镜像。使用 AI Inference Server,您可以以提高性能、降低成本的方式提供和推测模型。
1.1. 了解 Red Hat Enterprise Linux AI 复制链接链接已复制到粘贴板!
Red Hat Enterprise Linux AI (RHEL AI)可让您直接自定义并贡献到大型语言模型(LLM)。RHEL AI 从 InstructLab 项目构建,它使用一个称为 LAB 的微调方法(针对 Chatbots )的微调方法。LAB 方法使用复合数据生成(SDG)和多阶段培训框架来生成高质量的、精细调优的 LLM。
您可以将 RHEL AI 安装为可引导 Red Hat Enterprise Linux (RHEL)容器镜像。每个镜像都为特定的硬件加速器配置,包括 NVIDIA、AMD 和 Intel,包含各种 inference-serving 和微调工具。
您可以使用您自己的数据来创建 seed 文件,生成复合数据,并培训您可以与和部署交互的 Granite 初学者模型。
1.1.1. RHEL AI 的主要优势 复制链接链接已复制到粘贴板!
1.1.1.1. 安装和部署 复制链接链接已复制到粘贴板!
- RHEL AI 使用 RHEL 可引导的容器化操作系统安装。RHEL AI 镜像包含各种开源微调工具,以便您可以自定义红帽提供的 Granite 初学者模型。
- RHEL AI 提供在裸机、Amazon Web Services (AWS)、Azure、IBM Cloud 和 Google Cloud Platform (GCP)上部署的镜像。
- 您可以从 AWS 和 Azure 市场购买 RHEL AI,并将其部署到启用了 GPU 的任何实例上。
- 您可以使用由红帽和 IBM 提供的各种模型在本地下载、部署和聊天。
1.1.1.2. 模型自定义 复制链接链接已复制到粘贴板!
- 您可以使用 Synthetic Data Generation (SDG)进程,其中教导者使用人工生成的数据来生成大量可用于培训其他 LLM 的人工数据。
- 您可以使用多阶段培训,这是一个微调框架,即在数据集上培训模型并在单独的阶段评估,称为检查点。培训的最终阶段提供最有效的、完全调优的模式。
-
您可以使用各种模型评估基准,包括
MMLU、MT_BENCH和DK_BENCH。
1.2. 了解 Red Hat OpenShift AI 复制链接链接已复制到粘贴板!
Red Hat OpenShift AI 是一个全面的 MLOps 平台,旨在简化跨混合云环境和边缘的智能和机器学习(AI/ML)开发和操作。它促进了数据科学家和开发人员之间的协作,同时确保 IT 部门能够高效构建、培训、微调和部署预测和基础 AI 模型。
OpenShift AI 在 Red Hat OpenShift 的稳定基础之上提供自我管理或云服务,为在跨公共云、内部和边缘环境中大规模部署 AI 的应用程序和 ML 模型提供可靠的平台。
通过利用广泛的技术生态系统,Red Hat OpenShift AI 加速了 AI/ML 创新,确保运营一致性、提高混合云灵活性并保持透明度、选择和责任 AI 实践。
1.2.1. OpenShift AI 的主要优势。 复制链接链接已复制到粘贴板!
- 简化 AI 采用 :降低构建和交付 AI 模型及应用程序(准确、可靠且安全)的复杂性。
- 企业就绪的开源工具 :提供完全支持、安全的开源 AI 工具的企业级版本,确保无缝集成和互操作性。
- 加速创新 :为组织提供最新 AI 技术的访问权限,帮助他们在快速发展的市场中保持竞争。
- 广泛的合作伙伴生态系统 :使组织能够选择来自认证 AI 生态系统的最佳技术,从而提高灵活性和选择。
1.2.2. 数据科学家、开发人员和 MLOps 工程师的功能 复制链接链接已复制到粘贴板!
- 集成开发环境(IDE) :提供对 IDE 的访问,如 JupyterLab,使用 TensorFlow、PyTy 和 Scikit-learn 等预配置库。
- 数据科学项目:使用容器化管道 编配支持端到端 ML 工作流。
- 加速计算 :对 GPU 和 Intel Gaudi AI 加速器的集成支持,加快模型的培训和认证。
- 模型部署和服务 :在各种环境中部署模型,并使用 API 将它们集成到应用程序中。
1.2.3. IT 操作管理员的功能 复制链接链接已复制到粘贴板!
- 无缝 OpenShift 集成 :利用 OpenShift 身份提供商和资源分配工具,实现安全、高效的用户管理。
- 加速器管理 :为 GPU 和 AI 加速器使用启用有效的资源调度。
- 灵活的部署 :作为自助管理解决方案,或作为 Red Hat OpenShift Dedicated 和 Red Hat OpenShift Service on AWS (ROSA)的托管服务提供。
- 可扩展性和安全性 :为 AI 工作负载提供企业级安全功能和管理控制。
1.3. 了解 Red Hat AI Inference Server 复制链接链接已复制到粘贴板!
红帽 AI Inference 服务器通过开源 vLLM 项目 上的企业级稳定性和安全性构建提供高级推测功能。
AI Inference 服务器使用持续批处理和十个并行性来提供减少的延迟和更高的吞吐量。持续批处理处理模型请求,因为它们到达,而不是等待全面批处理。Tensor parallelism 在多个 GPU 之间分发 LLM 工作负载。
要降低推断模型的成本,AI Inference 服务器使用页面关注。LLMs 使用一种称为注意的机制来理解与用户对话。通常,请注意,使用大量内存。通过为 LLM 置备内存,如虚拟内存可用于操作系统的方式,页面对此内存的注意。这个方法消耗较少的内存,这会降低成本。
Red Hat AI Inference Server 具有以下功能:
- 混合云的推测运行时 :在加速器、Kubernetes 和 Linux 环境中运行您选择的模型。
- LLM Compressor: 压缩模型以优化加速器和计算使用量。降低成本,同时保持高模型的准确性。
- 优化模型存储库 :获得对一组优化的模型可供推测部署的访问,同时支持 NVIDIA 和 AMD 加速器。
- 已认证可用于红帽产品:与 RHEL AI 和 OpenShift AI 集成.