NVIDIAが、AIワークステーション DGX Station A100 を発表しました。タワー型の筐体にはAmpereベースのNVIDIA A100 Tensor Core GPUを4枚挿しにし「データセンターの無いところでもデータセンターのパフォーマンスを提供する」として、研究者が自宅やオフィスで、コンセントに電源コードを差し込むだけで使えることを特徴とします。
搭載するGPU、NVIDIA A100は5月に発表された40GBのグラフィックス用メモリーを持つバージョンのほか、新たに80GB版も用意しており、第3世代NVLinkにより最大320GBを扱えます。
その他の主要な仕様は、64コアのAMD EPYC CPU、512GB RAM、1.92TBのNVMe SSDをOS用ストレージとして、またデータキャッシュ用ストレージには最大7.68TBのNVMe SSDを搭載可能。映像出力としてMini DisplayPort ×4を備え、そのいずれもが4K映像出力に対応します。また10GbE ×2 および管理用の1GbE ×1有線LANポートを備えています。
リリース文によれば、DGX Station A100は並列処理や複数のユーザーがアクセスするための28のGPUインスタンスを提供できる唯一のNVIDIA MIG(Multi-Instance GPU)技術をサポートするワークグループサーバーだとのこと。
NVIDIAはすでにBMWやロッキード・マーティン、NTTドコモなどが先代となるDGX Stationを導入していると紹介。またSXM4フォームファクターのDGX A100にも80GB GPUを追加オプションとして用意します。さらに、膨大なAIワークロードなどに対応する DGX A100 640GB System、サーバー向けにスケーラブルな設計を持つHGX AI Supercomputing Platformもあわせて発表しました。
PCゲームなど一般的な用途には使えませんが、AI研究者たちにとってDGX Station A100 はこの上ない作業環境になりそうです。