2.2. 機能拡張
- カスタム接続タイプ
- 管理者は強化された接続機能を使用して、データベースなどのデータソースへのカスタム接続を設定できます。そのため、ユーザーはモデル開発のためにデータに簡単にアクセスできます。さらに、ユーザーは、URI ベースのリポジトリー用の組み込み接続タイプにより、モデルサービングのために Hugging Face などのリポジトリーからモデルにアクセスできます。
- NVIDIA Triton Inference Server バージョン 24.10 ランタイム: 追加のモデルでテストおよび検証済み
NVIDIA Triton Inference Server バージョン 24.10 ランタイムは、KServe (REST および gRPC) と ModelMesh (REST) の両方について、次のモデルでテスト済みです。
- Forest Inference Library (FIL)
- Python
- TensorRT
- 分散ワークロード: 追加のトレーニングイメージがテストおよび検証済み
いくつかの追加のトレーニングイメージがテストおよび検証済みです。
ROCm 互換の KFTO クラスターイメージ
新しい ROCm 互換の KFTO クラスターイメージ
quay.io/modh/training:py311-rocm61-torch241
がテストおよび検証済みです。このイメージは、ROCm 6.1 でサポートされている AMD アクセラレーターと互換性があります。ROCm 互換の Ray クラスターイメージ
ROCm 互換の Ray クラスターイメージ
quay.io/modh/ray:2.35.0-py39-rocm61
およびquay.io/modh/ray:2.35.0-py311-rocm61
がテストおよび検証済みです。これらは、以前は開発者プレビュー機能として提供されていました。これらのイメージは、ROCm 6.1 でサポートされている AMD アクセラレーターと互換性があります。CUDA 互換の KFTO イメージ
CUDA 互換の KFTO クラスターイメージがテストおよび検証済みです。このイメージは、以前は開発者プレビュー機能として提供されていました。現在は新しい場所
quay.io/modh/training:py311-cuda121-torch241
で提供されています。このイメージは、CUDA 12.1 でサポートされている NVIDIA GPU と互換性があります。
これらのイメージは AMD64 イメージであり、他のアーキテクチャーでは動作しない可能性があります。Red Hat OpenShift AI で利用可能な最新のトレーニングイメージの詳細は、Red Hat OpenShift AI でサポートされる構成 を参照してください。