AWS、クラウドでトレーニングした機械学習モデルをエッジデバイスで実行する「AWS Greengrass ML Inference」発表
Amazon Web Services(AWS)は、クラウドのエッジとして接続したデバイスで機械学習推論を実行できる新サービス[「AWS Greengrass ML Inference」を発表しました。
【リリース!】AWS Greengrass を使ったエッジでの機械学習推論の実行が可能に »https://t.co/rmzAtJ5AZf
— アマゾンウェブサービス (@awscloud_jp) 2018年4月10日
これにより、工場、車両、農地、家庭等で実行されているIoT デバイスにデプロイする前に、機械学習モデルを構築、訓練、そしてテストで、AWSのクラウドを活用することができます。#AWSBlog pic.twitter.com/NWgXHIZb7W
AWS Greengrassは、クラウドに接続されたエッジデバイス上でAWS Lambdaによるプログラミングを実現するほか、クラウドとのデータ同期やメッセージングなどを可能にするソフトウェアです。
今回発表された「AWS Greengrass ML Inference」は、このAWS Greengrassの新機能としてエッジデバイス上で機械学習による推論機能の実行を可能にしたもの。
データに対するレスポンスを、クラウドと通信することなくエッジデバイス上で稼働する機械学習推論によって行えるため、より高速なレスポンスが可能になります。またオフラインでも動作するため、接続環境が十分でないところでの稼働も可能。
例えば、エッジデバイス上で機械学習推論による音声検出機能を実装したうえで、認識したコマンドによる商品の注文などの複雑な処理のみクラウドで行う、といったことが可能になります。
AWS Greengrass ML Inference は、Apache MXNet、TensorFlow、Caffe2、CNTKに対応。さらに、NVIDIA Jetson、Intel Apollo Lake デバイス、Raspberry Piなどのデバイスでは、AWS Greengrass ML Inference にあらかじめ含まれるApache MXNet パッケージも利用できます。
AWS上でトレーニングした機械学習モデルは、AWS Greengrassコンソールからの操作でクラウドからエッジデバイスに簡単に転送できます。また、AWS Greengrassコンソールでエッジデバイス上の GPU などのハードウェアアクセラレーターをローカルリソースとして指定することで、ローカルのアクセラレーターデバイスを活用できます。
クラウドで機械学習をトレーニングしエッジデバイスで実行
エッジデバイスでの機械学習の実行は、Windows 10の次期大型アップデートやJavaScript環境で実現しつつあります。
- マイクロソフト、Windows 10に機械学習の実行環境とAPIを備えた「Windows ML」搭載へ。Windowsを学習済みモデルの実行プラットフォームに
- 「TensorFlow.js」公開、Webブラウザ上で機械学習の開発、学習、実行が可能に。WebGL経由でGPUも活用
いずれもクラウド上で機械学習のモデルを構築し、トレーニングさせたものをエッジデバイスで実行することを想定しています。
そしてAWSも今回のAWS Greengrass ML Inference発表で、同様にクラウドでの機械学習の構築とトレーニング、エッジデバイスでの実行を支援する環境が整うことになります。
こうしたクラウドとエッジの連係が、機械学習の実装における新しいトレンドになるのでしょうか。
あわせて読みたい
Ruby on Rails 5.2正式版発表。Active Storageによるクラウドストレージ対応、Redisでのキャッシュ対応など
≪前の記事
モバイルアプリケーションの開発に特化したCIツール「fastlane.ci」オープンソースで公開。fastlaneチームが開発