第 4 章 配置大型语言模型进行分析


Red Hat Developer Lightspeed for MTA 提供了大型语言模型(LLM),上下文提示、迁移提示和解决示例来生成解决当前代码中发现的问题的建议。

Red Hat Developer Lightspeed for MTA 旨在建模无关。它可用于在不同环境中运行的 LLM (本地容器、本地 AI 或共享服务)来支持在各种场景中分析 Java 应用程序。您可以从已知的供应商、从 Ollama 或 Podman 桌面运行的本地模型中选择 LLM,以及 OpenAI API 兼容模型。

生成的代码修复建议以解决通过分析检测到的问题,这取决于 LLM 的功能。

您可以从以下 generative AI 供应商中运行 LLM:

  • OpenAI
  • Azure OpenAI
  • Google Gemini
  • Amazon Bedrock
  • Ollama

您还可以运行 OpenAI API 兼容的 LLMs,它部署为:

  • OpenShift AI 集群中的服务
  • 在您的系统中的 Podman AI 实验室本地。

4.1. 在 OpenShift AI 集群中将 LLM 部署为服务

Red Hat Developer Lightspeed 中的代码建议因您使用的大语言模型(LLM)而异。因此,您可能希望使用满足您特定要求的 LLM。

用于 MTA 的 Red Hat Developer Lightspeed 与 LLM 集成,后者部署为 OpenShift AI 集群上的可扩展服务。这些部署可让您精细控制计算、集群节点和自动扩展图形处理单元(GPU)等资源,同时可让您利用 LLM 解决大规模代码问题。

用于在 OpenShift AI 上配置 LLM 服务的示例工作流需要以下配置:

  • 安装和配置以下基础架构资源:

    • Red Hat OpenShift 集群并安装 OpenShift AI Operator
    • 配置 GPU machineset
    • (可选)配置自动扩展自定义资源(CR)和机器 scaler CR
  • 配置 OpenShift AI 平台

    • 配置数据科学项目
    • 配置服务运行时
    • 配置加速器配置集
  • 通过 OpenShift AI 部署 LLM

    • 将模型上传到 AWS 兼容存储桶
    • 添加数据连接
    • 在 OpenShift AI 数据科学项目中部署 LLM
    • 导出 SSL 证书、OPENAI_API_BASE URL 和其他环境变量来访问 LLM
  • 准备 LLM 进行分析

    • 配置 OpenAI API 密钥
    • 更新 provider-settings.yaml 中的 OpenAI API 密钥和基本 URL。

请参阅 配置 LLM 提供者设置,以在 Red Hat Developer Lightspeed for MTA VS Code 扩展中配置基本 URL 和 LLM API 密钥。

返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat