NVIDIA、vSphere環境で稼働する「NVIDIA AI Enterprise」提供開始。GPUの能力を仮想化でスケーラブルに提供
NVIDIAは企業がオンプレミスやクラウド環境においてAIのワークロードを処理するための基盤ソフトウェア群「NVIDIA AI Enterprise」の提供開始を発表しました。
NVIDIA AI Enterpriseソフトウェアの一般提供を開始!これまで個別に提供されていたオープンソースのRAPIDSやTensor RTといったツール、TensorFlowやPyTorchなどのディープラーニングフレームワークをパッケージ化し、エンタープライズ水準のサポートを提供します。https://t.co/XDr72zfm3L pic.twitter.com/hYVw3dKB38
— NVIDIA AI Japan (@NVIDIAAIJP) August 27, 2021
NVIDIA AI EnterpriseはVMwareのvSphereで稼働するため、vSphereを使用しているオンプレミスやクラウド環境上でCUDAアプリケーション、AIフレームワーク、AIモデルなどNVIDIAのGPUを活用したソフトウェアをスケーラブルに実行可能になります。
強力なプロセッサパワーを要求するAIモデルのトレーニング処理などでは、複数のノードに備わっている複数のGPUに対して、仮想環境でもベアメタルとほぼ同様の性能で処理をスケールアウトさせることが可能。
一方で、推論処理のようにそれほど強力なGPU能力を必要としない場合には、マルチインスタンス GPU(MIG)機能によってNVIDIA A100 Tensor コア GPUを7つのインスタンスに分割し、別々のワークロードを割り当てることが可能です。
このようにNVIDIA AI Enterpriseを用いることで、これまで企業が慣れ親しんできた仮想環境と同じ手法でスケーラブルなGPUn能力を活用し、効率的なAIアプリケーションの開発や運用を実現できることになります。
NVIDIA AI EnterpriseはVMware vSphere 7 Update 2に対応。DellやHPE、Lenovoなどのシステムベンダにより提供される、NVIDIAに認証されたハードウェア上で稼働することになります。
あわせて読みたい
ノーコード/ローコード開発ツールは情報シス部門によるシステム内製化に本当に使えるのか? [PR]
≪前の記事
GitLab、クラウド上でXcodeのビルドに対応する「GitLab Build Cloud for macOS」ベータ公開