[速報]Google、機械学習に最適化した「Cloud TPU」発表。「われわれれはいま、AIファーストデータセンターの構築に取りかかっている」。Google I/O 2017
Googleは5月17日(日本時間5月18日未明)から開催中の年次イベント「Google I/O 2017」にて、機械学習に最適化した第二世代のTensorFlow Processing Unit(TPU)とそれを用いたクラウドサービス「Cloud TPU」を発表しました。
われわれはいま、AIファーストデータセンターを作っている
Google CEO Sundar Pichai氏。
われわれが検索事業を始めたとき、これをスケールさせるためにはそれまでの計算機のアーキテクチャを見直す必要があった。だからこそわれわれはそのためにデータセンターを最初から構築することになったのだ。
そしていま、機械学習やAIの進化はふたたび計算機のアーキテクチャの見直しを迫っており、そのためにわれわれはいま、AIファーストデータセンターの構築に取りかかっているのである。
昨年、機械学習のためのカスタムハードウェアであるTensorFlow Processing Unit(TPU)を開発したのはそのためだ。これはCPUやGPUよりも15倍から30倍高速で、30倍から80倍も電力効率が高い。
TPUはいまやサーチや音声認識など幅広いサービスで使われており、またAlphaGoでも使われていた。
トレーニングと推論の両方に最適化した次世代のTPU
機械学習はご存じの通り、「トレーニング」と「推論」の2つで構成されている。
トレーニングは非常にコンピュータの能力を必要とするもので、例えば30億ワードの翻訳に100GPUを用いて1週間かかっている。一方の推論は、例えばこの写真に写っているのはネコであるというように、リアルタイムに実行されている。そのため、最初のTPUは推論の処理向けに開発された。
そしてここに、次世代のTPU、「Cloud TPU」を発表する。これはトレーニングと推論の両方に最適化されたものだ。
これは1台のCloud TPUボードで、ここに4つのチップが搭載されており、このボード1つあたり180テラフロップスの能力を備えている。
そしてデータセンター内ではこれを64台まとめた「TPU Pods」を構成し、このポッドあたり 11.5 ペタフロップスの能力がある。
そして今日から、Google Compute Engineでこれが利用可能になる。Google Cloudは機械学習にベストなクラウドだ。
(追記) 2018年2月13日、GoogleはCloud TPUのベータ公開を発表しました。
Google I/O 2017
あわせて読みたい
[速報]Google、スマートフォン向けの機械学習ライブラリ「TensorFlow Lite」発表。DSPをアクセラレータとして利用。Google I/O 2017
≪前の記事
IBM PowerもNutanixのハイパーコンバージドインフラへ。IBMとNutanixが提携を発表