WebAssemblyとWebGPUを用い、Webブラウザ上でStable Diffusion Turbo全体を高速実行可能な推論エンジン「ONNX Runtime Web 1.17」マイクロソフトから登場
ONNX Runtime WebがWebGPUに対応。Webブラウザ上でさらに高速な推論処理が可能になった。Stable Diffusion Turbo全体をWebブラウザ上で高速に実行可能で、RTX4090を用いた場合1秒以内で結果が出力される。
マイクロソフトはWebブラウザ上で実行可能な推論エンジン「ONNX Runtime Web」の最新版となる「ONNX Runtime Web 1.17」でWebGPUに対応したことを発表しました。
ONNX Runtime Webの基になっている「ONNX Runtime」はクロスプラットフォーム対応の推論エンジンです。TensorFlow、PyTorch、SciKit Learnなどをはじめとするさまざまな機械学習のモデルに対応し、これらで生成されたモデルによる推論処理をプラットフォームに依存せず実行するランタイムの役割を果たします。
ONNX Runtime WebはこれをWebブラウザに対応させた実装です。これまでWebAssemblyやWebGLを用いていました。
参考:マイクロソフト、WebAssemblyとWebGLで推論エンジンを実装した「ONNX Runtime Web」(ORT Web)をオープンソースで公開
今回のONNX Runtime Web 1.17で対応したWebGPUは、Webブラウザ上でJavaScriptを用いた2次元や3次元の高速なグラフィックスの描画を行うWeb標準として広く使われてきた「WebGL」の後継となる、新しいWeb標準です。
WebGPUはオーバーヘッドが小さく低レイヤでの処理が行えることでGPUの能力をより高く引き出せるため、Webブラウザでの高速なグラフィクスレンダリングや機械学習処理などを可能にします。
WebGPU対応により、ONNX Runtime Webはこれまで以上にGPUを活用した高速な推論処理が可能となりました。
Webブラウザ上でStable Diffusion Turboを実行
マイクロソフトは今回の発表を行ったブログ「ONNX Runtime Web unleashes generative AI in the browser using WebGPU」で、Webブラウザ上でStable Diffusion TurboのようなAIモデルを実行できるようになると次のように説明しました。
This innovation unlocks new possibilities for executing state-of-the-art sophisticated models like Stable Diffusion Turbo directly in the browser. It is particularly advantageous in scenarios where CPU-based in-browser ML falls short of meeting performance standards. >
この技術革新により、Stable Diffusion Turboのような最先端の洗練されたモデルをブラウザで直接実行する新たな可能性が開かれた。特にCPUベースでのWebブラウザ内AI処理が性能に見合わない場合に有効となる。
これまでのWebGLと比較してWebGPUはより効率的な素理論が可能だと説明されています。
Compared to WebGL, WebGPU is capable of handling more complex machine learning workloads in a more efficient way with advanced features such as compute shader. Its support for half-precision (FP16) reduces GPU memory usage and bandwidth requirements while accelerating arithmetic. WebGPU promises inferencing more efficient and scalable machine learning applications directly within the web browser by harnessing GPU power for parallel computation tasks.
WebGLと比較して、WebGPUはコンピュートシェーダーなどの高度な機能により、より複雑な機械学習のワークロードをより効率的な方法で処理できます。半精度(FP16)をサポートすることでGPUのメモリ使用量と帯域幅の要件を削減すると同時に、演算を高速化します。WebGPUは並列計算タスクにGPUの能力を活用することで、スケーラブルな機械学習アプリケーションをWebブラウザ内で直接、より効率的に推論処理できるようになることを約束します。
そしてマイクロソフトはONNX Runtime Webを用いてWebブラウザ上でStable Diffusion Turboを実行可能なコードをGitHub上で公開しました。
マイクロソフトによると、GPUにRTX 4090を搭載したマシンのWebブラウザ上でStable Diffusion Turboを実際に実行した結果、1秒以内に結果が出力されたと説明しています。
参考:マイクロソフト、WebAssemblyとWebGLで推論エンジンを実装した「ONNX Runtime Web」(ORT Web)をオープンソースで公開
あわせて読みたい
従来型のオンプレミスのみをサポートするベンダーは市場から消滅しつつあり、ほとんどの日本企業にとって事態は相当に深刻。ガートナーが指摘
≪前の記事
PyTorchやTensorFlow互換のAI処理高速化プラットフォーム「MAX」プレビュー公開、Pythonを高速化した「Mojo」搭載