Open1

Nvidia AIチップ比較

nnn112358nnn112358

NVIDIA AI/コンピューティングチップ比較表

モデル名 アーキテクチャ 主な用途 メモリ容量 TDP (消費電力) 特徴 実装形態
GB10 Grace Blackwell デスクトップAI 128GB 統合メモリ 標準電源対応 FP4精度で1,000 TOPS、200Bパラメータモデル対応 スタンドアロンデスクトップユニット (DGX Spark)
GB300 Desktop Grace Blackwell Ultra ワークステーションAI 496GB 統合メモリ 高消費電力 FP4精度で20,000 TOPS (20 PFLOPS)、~460Bパラメータモデル対応 デスクトップワークステーション
B100 Blackwell AI推論/トレーニング 192GB HBM3e 700W H100互換設計、サーバー向け 空冷サーバー (HGX B100)
B200 Blackwell AI推論/トレーニング 192GB HBM3e 1,000W B100より高性能、サーバー向け 空冷/水冷サーバー (HGX/DGX B200)
B300/B300A Blackwell Ultra AI推論/トレーニング 288GB HBM3e 1,400W B200の1.5倍の性能、12層HBM3eメモリ 水冷サーバー (HGX B300)
GB200 Grace Blackwell AI大規模トレーニング Grace CPU + 2×B200 GPU 1,200W 統合Grace ARM CPU、大規模AIモデル向け 水冷サーバー/ラック (NVL72/36)
GB300/GB300A Grace Blackwell Ultra AI大規模推論/トレーニング Grace CPU + 2×B300 GPU 1,400W GB200の1.5倍の性能、より強力なスケーリング 完全水冷ラックシステム (NVL72)

モデル系列の説明

  • GB10: デスクトップ用の小型AIスパコン向けチップ。小型かつ電力効率に優れている。
  • B100/B200: サーバー向け標準GPUチップ。B100はH100と互換性あり。
  • B300シリーズ: "Blackwell Ultra"と呼ばれる強化版チップ。より多くのメモリと高いパフォーマンス。
  • GB200/GB300: Grace CPUとB200/B300 GPUを統合したスーパーチップ。大規模データセンター向け。
  • NVL (NVLink): 複数GPUを高速接続する技術。NVL36/72は、36/72個のGPUを相互接続。

主な違い

  • メモリタイプと容量: GB10は統合メモリ、他はHBM3e高帯域メモリを使用
  • 冷却方式: B100/一部B200は空冷、GB200/GB300/B300は水冷が必須
  • 用途: GB10はデスクトップ向け開発用、他はデータセンター向け
  • 性能: B300/GB300はB200/GB200の約1.5倍の性能
  • 発売時期: B100/B200/GB200は2025年前半、B300/GB300は2025年後半​​​​​​​​​​​​​​​​