第 4 章 使用新模型提供和聊天


您必须通过提供模型将模型部署到机器中。这会部署模型,并使模型可用于交互和聊天。

4.1. 提供新模型

要与新模型交互,您必须通过服务在机器中激活模型。ilab model serving 命令启动一个 vLLM 服务器,允许您与模型进行聊天。

先决条件

  • 已使用可引导容器镜像安装了 RHEL AI。
  • 您初始化了 InstructLab。
  • 您自定义了税务树,运行合成数据生成、培训并评估您的新模型。
  • 您需要机器上的 root 用户访问权限。

流程

  • 您可以运行以下命令来提供模型:

    $ ilab model serve --model-path <path-to-best-performed-checkpoint>

    其中:

    <path-to-best-performed-checkpoint>

    指定到您在培训后构建的检查点的完整路径。您的新模型是最佳执行检查点,其文件路径在培训后显示。

    示例命令:

    $ ilab model serve --model-path ~/.local/share/instructlab/phased/phase2/checkpoints/hf_format/samples_1945/

    重要

    确定在模型路径的末尾有一个斜杠 /

    ilab model serving 命令的输出示例

    $ ilab model serve --model-path ~/.local/share/instructlab/phased/phase2/checkpoints/hf_format/<checkpoint>
    INFO 2024-03-02 02:21:11,352 lab.py:201 Using model /home/example-user/.local/share/instructlab/checkpoints/hf_format/checkpoint_1945 with -1 gpu-layers and 4096 max context size.
    Starting server process
    After application startup complete see http://127.0.0.1:8000/docs for API.
    Press CTRL+C to shut down the server.

Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2026 Red Hat
返回顶部