Google Cloudが「Cloud TPU v5p」発表、AI処理に特化したプロセッサ。前世代より2.8 倍高速に大規模言語モデルをトレーニング。Google Cloud Next '24
Google Cloudは、日本時間4月10日未明から開催中のイベント「Google Cloud Next '24」で、同社が独自に開発しているAI処理に特化したプロセッサ「Cloud TPU」の最新版となる「Cloud TPU v5p」を発表しました。
TPU v5pは前世代のTPU 4と比較して最大4倍の能力を持つとのこと。
さらに2倍以上の浮動小数点演算性能(FLOPS)と3倍以上の高帯域幅メモリ(HBM)を備え、コストパフォーマンスは2.3倍向上し、2.8倍高速に大規模言語モデル(LLM)をトレーニングできるとしています。
TPUは基本的に多数のチップを集積したポッドとして構成されます。TPU v5pの各ポッドは8960個のチップで構成されており、3Dトーラスのトポロジーで4800Gbps/チップという最高帯域幅のチップ間相互接続(ICI)を実現しているとのことです。
Google Cloud Next '24
- [速報]Google、同社初の独自Armプロセッサ「Google Axion」発表。x86ベースの仮想マシンより50%高速と
- [速報]「Gemini for Google Cloud」発表。Google Cloudでの開発から運用、セキュリティなど利用シーン全体をAIが支援
- [速報]Google Cloudが「Gemini Code Assist」発表。最新のAIによるコーディング支援、Stack Overflowのナレッジも統合
- Google Cloud、AIワークロードに特化したストレージ「Hyperdisk ML」発表。競合となるAWSやAzureの高速ストレージより100倍高速と説明。Google Cloud Next '24
- Google Cloudが「Cloud TPU v5p」発表、AI処理に特化したプロセッサ。前世代より2.8 倍高速に大規模言語モデルをトレーニング。Google Cloud Next '24
あわせて読みたい
2028年までにエンタープライズソフトウェアエンジニアの75%がAIコードアシスタントを利用するとの予測。ガートナー
≪前の記事
Google Cloud、AIワークロードに特化したストレージ「Hyperdisk ML」発表。競合となるAWSやAzureの高速ストレージより100倍高速と説明。Google Cloud Next '24