1.2. Red Hat OpenShift AI について
Red Hat OpenShift AI は、ハイブリッドクラウド環境とエッジ全体で人工知能と機械学習 (AI/ML) の開発と運用を効率化するように設計された包括的な MLOps プラットフォームです。これにより、データサイエンティストと開発者のコラボレーションが促進されるだけでなく、IT 部門が監督する状態が保たれるため、組織が予測 AI および生成 AI モデルを効率的に構築、トレーニング、微調整、デプロイできるようになります。
OpenShift AI はセルフマネージド版とクラウドサービス版の両方で提供されており、Red Hat OpenShift の堅牢な基盤の上に構築されています。これにより、パブリッククラウド、オンプレミス、エッジ環境にわたって、AI 対応アプリケーションや機械学習モデルを安全かつ大規模にデプロイできる信頼性の高いプラットフォームを提供します。
Red Hat OpenShift AI は、幅広いテクノロジーエコシステムを活用することで、AI/ML のイノベーションを加速し、運用の一貫性を確保し、ハイブリッドクラウドの柔軟性を高め、透明性、選択の自由、責任ある AI の実践を支援します。
1.2.1. OpenShift AI の主な利点 リンクのコピーリンクがクリップボードにコピーされました!
- 簡素化された AI の採用: 正確で信頼性が高く、セキュアな AI モデルやアプリケーションの構築および提供に伴う複雑さを軽減します。
- エンタープライズ対応のオープンソースツール: 完全にサポートされ、セキュアなエンタープライズバージョンのオープンソース AI ツールを提供し、シームレスな統合と相互運用性を実現します。
- イノベーションの高速化: 組織に最新の AI テクノロジーへのアクセスを提供し、急速に進化する市場で競争力を維持できるよう支援します。
- 広範なパートナーエコシステム: 企業は、認定された AI エコシステムから最適なテクノロジーを選択し、柔軟性と選択肢を高めることができます。
1.2.2. データサイエンティスト、開発者、および MLOps エンジニア向けの機能 リンクのコピーリンクがクリップボードにコピーされました!
- 統合開発環境 (IDE):JupyterLab などの IDE へのアクセスを提供します。また、TensorFlow、PyTorch、Scikit-learn などの事前に設定されたライブラリーを使用します。
- データサイエンスパイプライン: コンテナー化されたパイプラインオーケストレーションを使用して、エンドツーエンドの ML ワークフローをサポートします。
- コンピューティングの高速化: モデルの学習および推論を高速化するために、GPU および Intel Gaudi AI アクセラレーターの統合サポートを提供します。
- モデルのデプロイメントとサービング: さまざまな環境にモデルをデプロイし、API を使用してそれらをアプリケーションに統合します。
1.2.3. IT オペレーション管理者の機能 リンクのコピーリンクがクリップボードにコピーされました!
- シームレスな OpenShift 統合: OpenShift アイデンティティープロバイダーとリソース割り当てツールを活用して、セキュアで効率的なユーザー管理を実現します。
- アクセラレーター管理: GPU および AI アクセラレーター使用の効率的なリソーススケジューリングを可能にします。
- 柔軟なデプロイメント: セルフマネージドソリューションまたは Red Hat OpenShift Dedicated および Red Hat OpenShift Service on AWS (ROSA) のマネージドサービスとして利用可能です。
- スケーラビリティーとセキュリティー:AI ワークロードのエンタープライズグレードのセキュリティー機能とガバナンス制御を提供します。