Red Hat OpenShift AI Self-Managed 2.24
Related Products
Red Hat OpenShift AI Cloud Service
Switch to the managed Cloud Service documentation
Red Hat AI Inference Server
Switch to the AI Inference Server documentation
Red Hat Enterprise Linux AI
Switch to the Enterprise Linux AI documentation
Welcome
リリースノート
このリリースに関連する機能、機能拡張、解決された問題、および既知の問題
Red Hat OpenShift AI の概要
OpenShift AI は、人工知能および機械学習 (AI/ML) アプリケーションのデータサイエンティストおよび開発者向けのプラットフォームです。
Supported configurations
Supported software platforms and architecture
Product life cycle
Understand the product life cycle to plan deployments and support applications using the product
Red Hat AI learning hub
Explore a curated collection of learning resources designed to help you accomplish key tasks with Red Hat AI products and services
Provide feedback on Red Hat documentation
Let Red Hat know how we can make our documentation better
Documentation for OpenShift cluster administrators
OpenShift AI Self-Managed のインストールとアンインストール
OpenShift AI Self-Managed のインストールとアンインストール
非接続環境での OpenShift AI Self-Managed のインストールおよびアンインストール
非接続環境での OpenShift AI Self-Managed のインストールおよびアンインストール
OpenShift AI Self-Managed のアップグレード
OpenShift 上の OpenShift AI をアップグレードする
非接続環境の OpenShift AI Self-Managed のアップグレード
非接続環境の OpenShift 上の Red Hat OpenShift AI をアップグレードする
ワークベンチの作成
カスタムリソース定義 (CRD) とコマンドラインを使用して、ワークベンチとカスタムイメージを作成する
OpenShift AI の管理
OpenShift AI を管理するためのクラスター管理者のタスク
モデルレジストリーコンポーネントの有効化
Red Hat OpenShift AI Self-Managed でのモデルレジストリーコンポーネントの有効化
Working with machine learning features (Technology Preview)
Store, manage, and serve features to machine learning models with Feature Store
Usage data collection notice
Learn about data collected in relation with your usage of the software
Enabling LAB-tuning (Technology Preview)
Enable model customization with LAB-tuning
Documentation for OpenShift AI administrators
リソースの管理
OpenShift AI ダッシュボードから管理タスクを管理する
Llama Stack の操作
Red Hat OpenShift AI Self-Managed での RAG の使用
アクセラレーターの使用
Red Hat OpenShift AI Self-Managed のアクセラレーターの操作
モデルレジストリーの管理
Red Hat OpenShift AI Self-Managed でのモデルレジストリーの管理
Documentation for OpenShift AI users
Red Hat OpenShift AI Self-Managed のスタートガイド
OpenShift AI 環境での使用方法に関する説明
OpenShift AI チュートリアル - 不正検出の例
OpenShift AI を使用して不正検出モデルの例をトレーニングおよびデプロイする
S3 互換オブジェクトストアでのデータの使用
ワークベンチから S3 互換オブジェクトストアに保存されたデータを使用する
データサイエンスプロジェクトでの作業
プロジェクトとワークベンチでの作業内容の整理、ノートブックの作成とコラボレーション、モデルのトレーニングとデプロイ、モデルサーバーの設定、パイプラインの実装
データサイエンス IDE での作業
Red Hat OpenShift AI Self-Managed からのデータサイエンス IDE での作業
データサイエンスパイプラインの使用
Red Hat OpenShift AI Self-Managed のデータサイエンスパイプラインを活用する
Customizing models with LAB-tuning (Technology Preview)
Customize models with LAB-tuning
データサイエンスモデルの監視
OpenShift AI モデルの公平性を監視する
分散ワークロードの使用
分散ワークロードを使用して、データ処理とモデルトレーニングのさらなる高速化および効率化を実現する
接続されたアプリケーションの使用
Red Hat OpenShift AI Self-Managed からアプリケーションに接続する
モデルレジストリーの使用
Red Hat OpenShift AI Self-Managed でのモデルレジストリーの操作
モデルサービングプラットフォームの設定
Red Hat OpenShift AI Self-Managed でモデルサービングプラットフォームを設定する
モデルのデプロイ
Red Hat OpenShift AI Self-Managed でモデルをデプロイする
モデルの管理と監視
Red Hat OpenShift AI Self-Managed でモデルを管理および監視する
API tiers
View a list of API tiers and API version examples for OpenShift AI