Open1
Nvidia AIチップ比較

NVIDIA AI/コンピューティングチップ比較表
モデル名 | アーキテクチャ | 主な用途 | メモリ容量 | TDP (消費電力) | 特徴 | 実装形態 |
---|---|---|---|---|---|---|
GB10 | Grace Blackwell | デスクトップAI | 128GB 統合メモリ | 標準電源対応 | FP4精度で1,000 TOPS、200Bパラメータモデル対応 | スタンドアロンデスクトップユニット (DGX Spark) |
GB300 Desktop | Grace Blackwell Ultra | ワークステーションAI | 496GB 統合メモリ | 高消費電力 | FP4精度で20,000 TOPS (20 PFLOPS)、~460Bパラメータモデル対応 | デスクトップワークステーション |
B100 | Blackwell | AI推論/トレーニング | 192GB HBM3e | 700W | H100互換設計、サーバー向け | 空冷サーバー (HGX B100) |
B200 | Blackwell | AI推論/トレーニング | 192GB HBM3e | 1,000W | B100より高性能、サーバー向け | 空冷/水冷サーバー (HGX/DGX B200) |
B300/B300A | Blackwell Ultra | AI推論/トレーニング | 288GB HBM3e | 1,400W | B200の1.5倍の性能、12層HBM3eメモリ | 水冷サーバー (HGX B300) |
GB200 | Grace Blackwell | AI大規模トレーニング | Grace CPU + 2×B200 GPU | 1,200W | 統合Grace ARM CPU、大規模AIモデル向け | 水冷サーバー/ラック (NVL72/36) |
GB300/GB300A | Grace Blackwell Ultra | AI大規模推論/トレーニング | Grace CPU + 2×B300 GPU | 1,400W | GB200の1.5倍の性能、より強力なスケーリング | 完全水冷ラックシステム (NVL72) |
モデル系列の説明
- GB10: デスクトップ用の小型AIスパコン向けチップ。小型かつ電力効率に優れている。
- B100/B200: サーバー向け標準GPUチップ。B100はH100と互換性あり。
- B300シリーズ: "Blackwell Ultra"と呼ばれる強化版チップ。より多くのメモリと高いパフォーマンス。
- GB200/GB300: Grace CPUとB200/B300 GPUを統合したスーパーチップ。大規模データセンター向け。
- NVL (NVLink): 複数GPUを高速接続する技術。NVL36/72は、36/72個のGPUを相互接続。
主な違い
- メモリタイプと容量: GB10は統合メモリ、他はHBM3e高帯域メモリを使用
- 冷却方式: B100/一部B200は空冷、GB200/GB300/B300は水冷が必須
- 用途: GB10はデスクトップ向け開発用、他はデータセンター向け
- 性能: B300/GB300はB200/GB200の約1.5倍の性能
- 発売時期: B100/B200/GB200は2025年前半、B300/GB300は2025年後半