← ニュースAll
Azure Maia 200を発表
要約
Microsoftは推論演算向けアクセラレーター「Azure Maia 200」を発表しました。TSMCの3nmで製造され、FP4演算で約10PFLOPS、HBM3e 216GBなど高帯域メモリを搭載し、一部Azureデータセンターに導入済みです。SDKのプレビューも公開されています。
本文
Microsoftは1月26日(米国太平洋時間)、AIの推論演算に特化したデータセンター向けアクセラレーター「Azure Maia 200」を発表しました。Maia 200は2023年に公表されたAzure Maia 100の次世代版で、同社は一部のAzureデータセンターで導入を進めているとしています。発表ではチップの演算性能やメモリ帯域などを高め、推論ワークロードの効率化を目指す点が強調されています。
主な仕様と導入状況:
・発表日:1月26日(米国太平洋時間)。一部サーバは米国中部データセンターで既に展開済み。
・製造プロセスと構成:台湾TSMCの3nmプロセスで製造。トランジスタ数は1400億個超。
・メモリと帯域:HBM3eを216GB搭載し、帯域幅は毎秒7TBとされています。オンチップSRAMは272MB搭載。
・演算性能:テンソルコアでFP4/FP8演算をネイティブに処理。FP4でピーク約10PFLOPS、FP8で約5PFLOPSと示されています。
・システム設計と導入形態:サーバブレードでは1トレイ当たり4基をスイッチを介さず直接接続し、スループットの改善を図るとのこと。
・ソフト面:Maia 200向けのSDKプレビューを公開しており、利用はWebフォームからリクエストする必要があります。
まとめ:
Azure Maia 200は推論向けに設計された次世代アクセラレーターとして、演算性能やメモリ帯域の強化を特徴としています。導入は既に一部データセンターで始まっており、今後も一部リージョンで展開を進めると伝えられています。公式の提供範囲や追加の導入スケジュールは現時点では未定です。
