3.2. 将培训数据发送到 TrustyAI


要使用 TrustyAI 进行bias 监控或数据偏移检测,您必须将模型的培训数据发送到 TrustyAI。

先决条件

  • 您的 OpenShift 集群管理员作为用户添加到 OpenShift 集群,并为包含部署模型的数据科学项目安装了 TrustyAI 服务。
  • 您验证了 TrustyAI 服务,如 验证 TrustyAI 服务 中所述。
  • 您部署的模型使用 TrustyAI 注册。

    验证 TrustyAI 服务是否已注册了部署的模型,如下所示:

    1. 在 OpenShift Web 控制台中,导航到 Workloads Pods
    2. 从项目列表中选择包含部署模型的项目。
    3. 为您的服务平台选择 pod (如 modelmesh-serving-ovms-1.x-xxxxx)。
    4. Environment 选项卡中,验证是否设置了 MM_PAYLOAD_PROCESSORS 环境变量。

流程

  1. TRUSTY_ROUTE 变量设置为 TrustyAI 服务 pod 的外部路由。

    TRUSTY_ROUTE=https://$(oc get route/trustyai-service --template={{.spec.host}})
    Copy to Clipboard Toggle word wrap
  2. 获取已部署模型的 inference 端点,如 访问已部署模型的 inference 端点 中所述。
  3. 将数据发送到此端点。如需更多信息,请参阅 KServe v2 Inference 协议文档

验证

按照以下步骤查看集群指标,并验证 TrustyAI 正在接收数据。

  1. 登录 OpenShift Web 控制台。
  2. 切换到 Developer 视角。
  3. 在左侧菜单中,点 Observe
  4. Metrics 页面中,单击 Select query 列表,然后选择 Custom query
  5. Expression 字段中,输入 trustyai_model_observations_total 并按 Enter。应该列出您的模型并报告观察到的推测。
  6. 可选:从图形上面的列表中选择一个时间范围。例如,选择 5m
返回顶部
Red Hat logoGithubredditYoutubeTwitter

学习

尝试、购买和销售

社区

关于红帽文档

通过我们的产品和服务,以及可以信赖的内容,帮助红帽用户创新并实现他们的目标。 了解我们当前的更新.

让开源更具包容性

红帽致力于替换我们的代码、文档和 Web 属性中存在问题的语言。欲了解更多详情,请参阅红帽博客.

關於紅帽

我们提供强化的解决方案,使企业能够更轻松地跨平台和环境(从核心数据中心到网络边缘)工作。

Theme

© 2025 Red Hat