Red Hat OpenShift AI Self-Managed 2.25
Related Products
Red Hat OpenShift AI Cloud Service
Switch to the managed Cloud Service documentation
Red Hat AI Inference Server
Switch to the AI Inference Server documentation
Red Hat Enterprise Linux AI
Switch to the Enterprise Linux AI documentation
Welcome
リリースノート
このリリースに関連する機能、機能拡張、解決された問題、および既知の問題
Red Hat OpenShift AI の概要
OpenShift AI は、人工知能および機械学習 (AI/ML) アプリケーションのデータサイエンティストおよび開発者向けのプラットフォームです。
Supported configurations
Supported software platforms and architecture
Product life cycle
Understand the product life cycle to plan deployments and support applications using the product
Red Hat AI learning hub
Explore a curated collection of learning resources designed to help you accomplish key tasks with Red Hat AI products and services
Provide feedback on Red Hat documentation
Let Red Hat know how we can make our documentation better
Documentation for OpenShift cluster administrators
OpenShift AI Self-Managed のインストールとアンインストール
OpenShift AI Self-Managed のインストールとアンインストール
非接続環境での OpenShift AI Self-Managed のインストールおよびアンインストール
非接続環境での OpenShift AI Self-Managed のインストールおよびアンインストール
OpenShift AI Self-Managed のアップグレード
OpenShift 上の OpenShift AI をアップグレードする
非接続環境の OpenShift AI Self-Managed のアップグレード
非接続環境の OpenShift 上の Red Hat OpenShift AI をアップグレードする
ワークベンチの作成
カスタムリソース定義 (CRD) とコマンドラインを使用して、ワークベンチとカスタムイメージを作成する
OpenShift AI の管理
OpenShift AI を管理するためのクラスター管理者のタスク
モデルレジストリーコンポーネントの有効化
Red Hat OpenShift AI Self-Managed でのモデルレジストリーコンポーネントの有効化
モデルの管理と監視
Red Hat OpenShift AI Self-Managed でモデルを管理および監視する
Working with machine learning features (Technology Preview)
Store, manage, and serve features to machine learning models with Feature Store
Usage data collection notice
Learn about data collected in relation with your usage of the software
Documentation for OpenShift AI administrators
リソースの管理
OpenShift AI ダッシュボードから管理タスクを管理する
モデルサービングプラットフォームの設定
Red Hat OpenShift AI Self-Managed でモデルサービングプラットフォームを設定する
Llama Stack の操作
Red Hat OpenShift AI Self-Managed での Llama Stack の使用
Working with accelerators
Working with accelerators from Red Hat OpenShift AI Self-Managed
モデルレジストリーの管理
Red Hat OpenShift AI Self-Managed でのモデルレジストリーの管理
Documentation for OpenShift AI users
Red Hat OpenShift AI Self-Managed のスタートガイド
OpenShift AI 環境での使用方法に関する説明
OpenShift AI チュートリアル - 不正検出の例
OpenShift AI を使用して不正検出モデルの例をトレーニングおよびデプロイする
Working with data in an S3-compatible object store
Work with data stored in an S3-compatible object store from your workbench
Working on data science projects
Organize your work in projects and workbenches, create and collaborate on notebooks, train and deploy models, configure model servers, and implement pipelines
Working in your data science IDE
Working in your data science IDE from Red Hat OpenShift AI Self-Managed
データサイエンスパイプラインの使用
Red Hat OpenShift AI Self-Managed のデータサイエンスパイプラインを活用する
データサイエンスモデルの監視
OpenShift AI モデルの公平性を監視する
Working with distributed workloads
Use distributed workloads for faster and more efficient data processing and model training
Working with connected applications
Connect to applications from Red Hat OpenShift AI Self-Managed
モデルレジストリーの使用
Red Hat OpenShift AI Self-Managed でのモデルレジストリーの使用
Working with the model catalog
Working with the model catalog in Red Hat OpenShift AI Self-Managed
モデルのデプロイ
Red Hat OpenShift AI Self-Managed でモデルをデプロイする
API tiers
View a list of API tiers and API version examples for OpenShift AI