Red Hat OpenShift AI

Red Hat® OpenShift® AI は、ハイブリッドクラウド環境全体で、予測 AI および生成 AI モデルのライフサイクルを大規模に管理するためのプラットフォームです。 

Red Hat OpenShift AI

Red Hat OpenShift AI とは

OpenShift AI はオープンソース・テクノロジーを使用して構築されており、実験、モデル提供、革新的なアプリケーションの提供のための、信頼性と一貫性に優れた運用機能を提供します。

OpenShift AI は、データの取得と準備、モデルのトレーニングとファインチューニング、モデルの提供とモデルのモニタリング、およびハードウェアのアクセラレーションを可能にします。OpenShift AI は、ハードウェアパートナーとソフトウェアパートナーのオープンエコシステムにより、特定のユースケースに必要な柔軟性をもたらします。

あらゆる環境で AI をより迅速に起動する(動画の再生時間:5:26)

Red Hat AI のグラフィック

AI 対応アプリケーションをより迅速にプロダクションに導入

Red Hat OpenShift AI と Red Hat OpenShift の実証済みの機能を、各チームを結び付ける 1 つのエンタープライズ対応 AI アプリケーション・プラットフォームに統合しましょう。データサイエンティスト、エンジニア、アプリケーション開発者は、一貫性、セキュリティ、スケーラビリティを促進する同じ目標に向けてコラボレーションすることができます。

OpenShift AI の最新リリースには厳選されたサードパーティモデルのコレクションが含まれています。これらのモデルは最適化されていてすぐにプロダクションで使用でき、Red Hat OpenShift AI 向けに検証済みです。このようにサードパーティモデルのカタログにアクセスできるので、チームはモデルのアクセス性と可視性をより詳細に制御し、セキュリティとポリシーの要件を満たすことができます。 

さらに、OpenShift AI では、最適化された vLLM フレームワークを通じた分散型サービスにより、推論コストの管理がしやすくなります。デプロイメントを自動化するための高度なツールを利用でき、モデル、ツール、リソースにセルフサービスでアクセスできるので、運用の複雑さがより一層軽減されます。

AI インフラストラクチャの管理に費やす時間を削減

チームがリソースにオンデマンドでアクセスできるようにすることで、必要なときにモデルのトレーニングやサービス環境をセルフサービスでスケーリングできます。さらに、スケーラブルなクラスタ環境全体で AI アクセラレーター (GPU) とワークロードリソースを管理することで、運用の複雑さが軽減されます。

テスト済み、サポート付きの AI/ML ツール

AI/ML ツールとモデルのテスト、統合、サポートは Red Hat が担うため、お客様がそれらを行う必要はありません。OpenShift AI は、Red Hat の Open Data Hub コミュニティプロジェクトや Kubeflow のようなオープンソース・プロジェクトでの長年にわたる支援が基盤となっています。 

Red Hat は経験とオープンソースの専門知識を活かして生成 AI に対応した基盤を提供できるため、お客様は生成 AI 戦略においてより幅広い選択肢とより大きな自信を持つことができます。 

ハイブリッドクラウドにおける柔軟性

Red Hat OpenShift AI は、セルフマネージドのソフトウェアとして、または OpenShift 上のフルマネージド型クラウドサービスとして提供され、オンプレミスでも、パブリッククラウドでも、さらにはエッジでも、モデルを開発しデプロイする場所を選択できる安全で柔軟なプラットフォームです。

Red Hat のベストプラクティスを活用

Red Hat サービスは、お客様が AI 導入のどの段階にあるかを問わず、専門知識、トレーニング、サポートを提供し、AI の課題を克服できるよう支援します。 

AI ソリューションのプロトタイプ作成AI プラットフォームのデプロイの効率化、MLOps 戦略の推進など、どのようなご要望にも Red Hat コンサルティングがサポートとメンタリングを提供します。

vLLM による最適化で大規模な推論を高速かつコスト効率よく実行

Red Hat AI Inference Server は、Red Hat AI プラットフォームの一部です。スタンドアローン製品として利用可能であり、Red Hat Enterprise Linux® AI と Red Hat OpenShift® AI の両方に含まれています。

パートナーシップ

Red Hat OpenShift AI プラットフォームは、他の統合サービスや製品で拡張することで、活用の幅を拡げることができます。

NVIDIA のロゴ

NVIDIA と Red Hat は、比類のない柔軟性で多様な AI ユースケースを促進するスケーラブルなプラットフォームを提供します。

Intel のロゴ

Intel® と Red Hat は、AI の導入を加速させ、AI/ML モデルを迅速に運用できるよう組織を支援します。

IBM ロゴ

IBM と Red Hat は、AI 構築者のためのエンタープライズ対応 AI スタジオである IBM watsonx.aiTM などを通じて、AI 開発を促進するオープンソース・イノベーションを提供しています。 

Starburst ロゴ

Starburst Enterprise と Red Hat は、統合されていない複数の分散データプラットフォームにわたる迅速なデータ分析を通して、優れた知見をタイムリーに取得するのをサポートします。

AI プラットフォームのためのスケーラブルな Kubernetes インフラストラクチャ

AI を活用したアプリケーションを構築するための機械学習運用 (MLOPs) の原則とプラクティスの実践方法を学びましょう。 

モデルワークベンチを通じたコラボレーション

データサイエンティストが希望する IDE (JupyterLab など) を使ってモデルを操作できるよう、事前構築済みまたはカスタマイズ済みのクラスタイメージを提供します。Red Hat OpenShift AI は、Jupyter、TensorFlow、PyTorch をはじめとするオープンソース AI テクノロジーの変更を追跡します。

OpenShift AI コンソールの「有効」アプリケーションタブのスクリーンショット
OpenShift AI コンソールの「モデルの提供表」のスクリーンショット

Red Hat OpenShift AI でモデルの提供をスケーリング

モデルは、vLLM (またはお客様のご希望に応じたその他のモデルサーバー) の最適化されたバージョンを使って提供され、オンプレミス、パブリッククラウド、エッジの AI 対応アプリケーションに統合できます。これらのモデルは、ソースノートブックへの変更に基づいて再構築、再デプロイ、監視することが可能です。

バイアスやドリフトが発生するとモデルの整合性が損なわれ、スケーリングが困難になる可能性があります。公平性、安全性、スケーラビリティを維持するために、OpenShift AI ではデータ運用担当者がモデル出力とトレーニングデータの整合性を監視できます。 

ドリフト検出ツールは、モデル推論に使用されるライブデータが元のトレーニングデータから逸脱していないかを監視できます。また、モデルの入出力を、暴言や不適切な発言、個人データ、ドメイン固有の制限などの有害な情報から保護するための AI ガードレールも含まれています。 

ソリューションパターン

Red Hat と NVIDIA AI Enterprise による AI アプリケーション

RAG アプリケーションを作成する

Red Hat OpenShift AI は、データサイエンス・プロジェクトを構築し、AI 対応アプリケーションを提供するためのプラットフォームです。独自の参照ドキュメントから AI の回答を取得する手法の 1 つである 検索拡張生成 (RAG) をサポートするために必要なすべてのツールを統合できます。OpenShift AI を NVIDIA AI Enterprise に接続すると、 大規模言語モデル (LLM) を試して、アプリケーションに最適なモデルを見つけることができます。

ドキュメントのパイプラインを構築する

RAG を利用するには、まずドキュメントをベクトルデータベースに取り込む必要があります。サンプルアプリでは、一連の製品ドキュメントを Redis データベースに埋め込んでいます。これらのドキュメントは頻繁に変更されるため、定期的に実行するこのプロセス用のパイプラインを作成すると、常に最新バージョンのドキュメントを入手できます。

LLM カタログを閲覧する

NVIDIA AI Enterprise ではさまざまな LLM のカタログにアクセスできるため、さまざまな選択肢を試して、最良の結果が得られるモデルを選択できます。モデルは NVIDIA API カタログでホストされています。API トークンを設定したら、OpenShift AI から直接 NVIDIA NIM モデル提供プラットフォームを使用してモデルをデプロイできます。

適切なモデルを選択する

さまざまな LLM をテストする際、ユーザーは生成される応答をそれぞれ評価することができます。Grafana モニタリング・ダッシュボードを設定して、各モデルの評価だけでなく、レイテンシーと応答時間も比較できます。そしてそのデータを使用して、プロダクションで使用する最適な LLM を選択できます。

PDF をダウンロードアイコン

アーキテクチャ図は、Red Hat OpenShift AI と NVIDIA AI Enterprise を使用して構築されるアプリケーションを示しています。コンポーネントには、GitHub に接続して DevOps のインタラクションを処理するための OpenShift GitOps、モニタリング用の Grafana、データサイエンス用の OpenShift AI、ベクトルデータベースとしての Redis、イメージレジストリとしての Quay が含まれます。これらのコンポーネントはすべて、アプリケーションのフロントエンドとバックエンドとつながります。これらのコンポーネントは Red Hat OpenShift AI 上に構築されており、ai.nvidia.com と統合されています。

Red Hat OpenShift AI を試す方法

開発者向けサンドボックス

事前構成済みの柔軟な環境で、AI 対応アプリケーションの構築を試してみたい開発者やデータサイエンティスト向け。

60 日間のトライアル

OpenShift AI のすべての機能を評価する準備が整ったら、60 日間の製品トライアルをお試しください。ご利用にあたっては、あらかじめ Red Hat OpenShift クラスタが必要です。

その他の AI 関連資料

DenizBank、Red Hat OpenShift AI でデータサイエンティストを支援

LLM の AI ガードレールで生成 AI モデルを確実に保護

オープンソース:AI の成功への近道

組織への MLOps の実装を成功させるための 5 つの方法

セールスチームに問い合わせる

Red Hat AI について Red Hat に問い合わせる