第 4 章 配置大型语言模型进行分析
Red Hat Developer Lightspeed for MTA 提供了大型语言模型(LLM),上下文提示、迁移提示和解决示例来生成解决当前代码中发现的问题的建议。
Red Hat Developer Lightspeed for MTA 旨在建模无关。它可用于在不同环境中运行的 LLM (本地容器、本地 AI 或共享服务)来支持在各种场景中分析 Java 应用程序。您可以从已知的供应商、从 Ollama 或 Podman 桌面运行的本地模型中选择 LLM,以及 OpenAI API 兼容模型。
生成的代码修复建议以解决通过分析检测到的问题,这取决于 LLM 的功能。
您可以从以下 generative AI 供应商中运行 LLM:
- OpenAI
- Azure OpenAI
- Google Gemini
- Amazon Bedrock
- Ollama
您还可以运行 OpenAI API 兼容的 LLMs,它部署为:
- OpenShift AI 集群中的服务
- 在您的系统中的 Podman AI 实验室本地。
4.1. 在 OpenShift AI 集群中将 LLM 部署为服务 复制链接链接已复制到粘贴板!
Red Hat Developer Lightspeed 中的代码建议因您使用的大语言模型(LLM)而异。因此,您可能希望使用满足您特定要求的 LLM。
用于 MTA 的 Red Hat Developer Lightspeed 与 LLM 集成,后者部署为 OpenShift AI 集群上的可扩展服务。这些部署可让您精细控制计算、集群节点和自动扩展图形处理单元(GPU)等资源,同时可让您利用 LLM 解决大规模代码问题。
用于在 OpenShift AI 上配置 LLM 服务的示例工作流需要以下配置:
安装和配置以下基础架构资源:
- Red Hat OpenShift 集群并安装 OpenShift AI Operator
- 配置 GPU machineset
- (可选)配置自动扩展自定义资源(CR)和机器 scaler CR
配置 OpenShift AI 平台
- 配置数据科学项目
- 配置服务运行时
- 配置加速器配置集
通过 OpenShift AI 部署 LLM
- 将模型上传到 AWS 兼容存储桶
- 添加数据连接
- 在 OpenShift AI 数据科学项目中部署 LLM
-
导出 SSL 证书、
OPENAI_API_BASE
URL 和其他环境变量来访问 LLM
准备 LLM 进行分析
- 配置 OpenAI API 密钥
-
更新
provider-settings.yaml
中的 OpenAI API 密钥和基本 URL。
请参阅 配置 LLM 提供者设置,以在 Red Hat Developer Lightspeed for MTA VS Code 扩展中配置基本 URL 和 LLM API 密钥。