Google、機械学習専用の第三世代プロセッサ「TPU 3.0」を発表。Google初の液冷システム採用。Google I/O 2018
Googleは、サンフランシスコで開催中のイベント「Google I/O 2018」で、機械学習処理専用のプロセッサ「Tensor Processing Unit」(TPU)の第三世代となる「TPU 3.0」を発表しました。
機械学習には、学習を行うトレーニングの処理と、学習した内容を基に行う推論の処理の2つがあります。特にトレーニングの処理は非常に大きなコンピュータの処理能力を必要とします。
TPUはこのどちらも高速に実行するため最適化されたプロセッサです。
Googleは昨年のGoogle I/O 2017で、第二世代のTPUとそれを用いたクラウドサービスの「Cloud TPU」を発表していました。
TPU 3.0は、この1年前に発表されたTPU 2.0の8倍の能力を持つとのこと。Googleとしては初の液冷システムをデータセンターに採用しなければならなかったと、Google CEOのSundar Pichai氏。
Today we're announcing our third generation of TPUs. Our latest liquid-cooled TPU Pod is more than 8X more powerful than last year's, delivering more than 100 petaflops of ML hardware acceleration. #io18 pic.twitter.com/m8OH5vFw4g
— Google (@Google) 2018年5月8日
TPU 3.0の投入により、より優れたモデルや大きなモデル、正確なモデルなどを処理できるようになり、これまでよりも困難な課題に対して機械学習を適用できるようになったとしています。
マイクロソフトはFPGA、Googleは専用プロセッサを選んだ
Googleがこのように機械学習処理に専用プロセッサを投入する一方、マイクロソフトが昨日発表したリアルタイムAI処理を高速に実行するための基盤「Project Brainwave」では、プロセッサとしてインテルのFPGAを採用したことが明らかになっています。
一般に、専用プロセッサの方が高い性能が期待できますが、専用プロセッサであるがゆえに処理の柔軟性には欠けるところがある一方、FPGAは専用プロセッサよりも性能が劣る一方で、チップ内部のロジックを書き換える能力によって高い柔軟性が期待できます。
つまり、Googleは柔軟性を捨てても性能をとり、マイクロソフトは一定の性能を確保しつつも柔軟性も持とうとしていることになります。
これは自社のクラウドを基盤に、デベロッパーからコンシューマまで幅広い層に対して高度かつ多様なAIや機械学習のサービスを提供しようとしているGoogleと、おもにデベロッパーを相手に機械学習アプリケーション開発と実行のプラットフォームを提供し、エンドユーザー向けのアプリケーションはデベロッパーに開発してもらおうとしているマイクロソフト、という両者のアプローチの違いが機械学習の基盤に表れているのかもしれません。
Google I/O 2018
- [速報]AIが人間と自然な会話をし、電話で美容院やレストランを予約。Googleがデモを公開。Google I/O 2018
- [速報]ChromebookがLinuxの実行を正式サポート。Android Studioも実行可能に。Google I/O 201
- Google、機械学習専用の第三世代プロセッサ「TPU 3.0」を発表。Google初の液冷システム採用。Google I/O 2018
- [速報]Androidアプリの開発を加速するツールとライブラリ、「Android Jetpack」発表。Google I/O 2018
- [速報]モバイルアプリに顔認識など機械学習の機能を組み込める「ML Kit」、Googleが発表。Google I/O 2018
あわせて読みたい
[速報]Androidアプリの開発を加速するツールとライブラリ、「Android Jetpack」発表。Google I/O 2018
≪前の記事
[速報]ChromebookがLinuxの実行を正式サポート。Android Studioも実行可能に。Google I/O 2018