Groq Cloud はどのように高速な LLM 推論を実現しているのか
はじめに
AIの世界において、レスポンス速度は単なる技術的指標ではなく、ユーザー体験を根本的に変える要素となっています。Groq Cloud が提供する驚異的な推論速度は、私たちのAIとの対話方法を再定義しつつあります。従来のGPUベースのシステムでは、大規模言語モデル(LLM)の実行時に数秒から数十秒の待ち時間が当たり前でしたが、Groq は一瞬で応答を生成します。本記事では、Groq がどのようにして従来比で最大18倍もの高速な推論を実現しているのか、その革新的なハードウェアとソフトウェアアーキテクチャを解説します。
TL;DR
- Groq は、推論特化型の「Language Processing Unit(LPU)」という独自設計チップを採用しており、決定論的な実行モデルとオンチップメモリアーキテクチャによって、GPUと比較して飛躍的に高速かつ予測可能な処理を実現している
- 「Compiler-in-the-Loop」アーキテクチャとソフトウェア中心の設計思想により、命令の正確な事前スケジューリングが可能となり、LLMの本質であるシーケンシャル処理に最適化されたパフォーマンスを提供している
- 実際のベンチマークでは、大規模モデルで最大18倍の高速化を実現し、リアルタイム対話システムやコンテンツ生成など低レイテンシー要件の高いアプリケーションに特に価値がある一方、メモリ容量の制約やエコシステムの発展途上といった課題も存在する
Groq の背景と概要
創業と発展の経緯
Groq は Jonathan Ross によって2016年に設立されました。Ross はかつて Google の TPU(Tensor Processing Unit)チームのリード設計者として活躍し、その経験を活かして推論に特化したハードウェアを開発するという明確なビジョンを持ってスタートアップを立ち上げました。
2023年後半から2024年初頭にかけて、Groq は Claude や Llama などの大規模言語モデルで秒間数百トークンという驚異的な推論速度を実現し、業界に衝撃を与えました。2024年のベンチマークでは、Groq LPU™ Inference Engine は他のクラウドベースの推論プロバイダーと比較して、出力トークンのスループットが最大18倍速いという結果を示しました。
2025年に入ってからも成長は加速しており、2月には大規模な投資を獲得したことが報道されています。特に注目すべきは、サウジアラビアのAramco Digitalとの提携です。この提携により、中東、アフリカ、インド地域をカバーする巨大なAIハブが確立されつつあります。
Groq の技術的ポジショニング
Groq は AI ハードウェア市場において独自のポジションを確立しています。同社の主な焦点は、「Language Processing Units(LPUs)」という新しいタイプの AI アーキテクチャの開発です。これは機械学習計算、特に言語処理タスクを加速するために特別に設計されています。
特に注目すべきは、Groq が推論に特化している点です。多くの競合が訓練(トレーニング)と推論(インファレンス)の両方に対応するチップを開発する中、Groq は推論に特化することで極めて高いパフォーマンスを実現しています。この明確な特化戦略により、AIモデルを運用する段階で圧倒的な速度優位性を獲得しています。
表1: Groqの企業概要
項目 | 詳細 |
---|---|
設立 | 2016年 |
創業者 | Jonathan Ross(元Google TPUチーム) |
本社 | 米国カリフォルニア州マウンテンビュー |
主要製品 | LPU (Language Processing Unit) |
評価額 | 約28億ドル(2024年時点) |
主要投資家 | Tiger Global Management, D1 Capital, BlackRock |
主要パートナー | Aramco Digital, Meta |
Groq の LPU アーキテクチャ
LPU の基本設計思想:「決定論的実行」
Groq の LPU の根底にある設計思想は「決定論的実行」です。LPU は、従来の反応的なハードウェアコンポーネント(分岐予測器、アービタ、リオーダリングバッファ、キャッシュなど)を使用せず、すべての実行をコンパイラが明示的に制御することで決定論的な実行を実現しています。
これは自動車のナビゲーションシステムに例えると分かりやすいでしょう。従来のGPUは、道中で渋滞や工事などの状況に応じて経路を動的に再計算するナビのようなものです。一方、Groqの決定論的アプローチは、出発前に最適な経路をすべて計算し、その通りに正確に走行するようなものです。この予測可能性が、驚異的な速度と効率性をもたらします。
TSP(Tensor Streaming Processor)アーキテクチャに基づく Groq の LPU は、従来の CPU/GPU アーキテクチャとは一線を画し、言語モデル推論タスクのパフォーマンスを向上させるために、決定論的で予測可能な実行に焦点を当てています。
Tensor Streaming Processor (TSP) と LPU の関係
LPU は Groq の製品名称ですが、その中核技術は TSP(Tensor Streaming Processor)にあります。TSP は LPU の基盤となるユニットであり、多数の TSP がラック形式で組み合わされ、さらに多くのラックが接続されて、大量のスループットを提供できる分散システムを形成しています。
Groq のチップは、バッファレスで完全に決定論的な VLIW(Very Long Instruction Word)アーキテクチャを使用しており、コスト効率よく低レイテンシーシナリオで優れたパフォーマンスを発揮します。ただし、大規模モデル向けに HBM(High Bandwidth Memory)を搭載せず SRAM に依存しているため、大規模モデルでは複数チップを接続する必要があります。
従来の GPU アーキテクチャとの根本的な違い
GPUは当初グラフィックス処理用に設計されたため、AI推論タスク、特に言語モデルの実行に最適な設計ではありません。以下の表はGroqのLPUと従来のGPUとの主な違いを比較しています:
表2: GPU と LPU の設計比較
特性 | GPU | Groq LPU |
---|---|---|
設計思想 | グラフィックス処理から汎用計算へ拡張 | 推論専用に最初から設計 |
アーキテクチャ | ハブアンドスポーク型(多数のコアと複雑な相互接続) | プログラマブルなアセンブリライン式 |
メモリ構造 | 複雑な階層(キャッシュ、バッファ、外部メモリ) | オンチップメモリとコンピュートの統合 |
実行モデル | 動的で非決定論的(分岐予測、投機的実行など) | 静的で決定論的(コンパイラによる完全制御) |
最適化領域 | 並列処理が可能な汎用計算 | シーケンシャルな依存関係を持つ処理(特に言語モデル) |
メモリ帯域幅 | チップ外部メモリへのアクセスが必要(ボトルネック) | 最大80 TB/sのオンダイメモリ帯域幅 |
柔軟性 | 様々な計算タスクに対応可能 | 推論タスクに特化(特にLLM推論に最適化) |
オンダイメモリによる高速データアクセス
Groq LPU の重要な特徴の一つは、オンダイメモリの活用です。LPU の印象的なオンダイメモリ帯域幅(最大80 TB/s)は、大規模言語モデルの膨大なデータ要件を GPUよりも効率的に処理する能力を示しています。
従来の設定では CPU と GPU が外部 RAM をメモリとして使用するのに対し、オンダイメモリはチップ自体に直接統合されており、データ転送のレイテンシーが大幅に低減され、帯域幅が向上します。これを日常的な例で説明すると、必要な情報をリモートサーバーから毎回ダウンロードする(GPU)のではなく、すべての情報を手元に置いておく(LPU)ようなものです。
各 LPU チップは 230 MB の SRAM を搭載しており、これは小規模なモデルには十分ですが、大規模モデルの場合は複数チップを連携させる必要があります。このオンチップメモリ設計により、プロセッサと別個のメモリモジュール間をデータが行き来する時間を削減し、AI ワークロードの処理効率を根本的に向上させています。
Compiler-in-the-Loop アーキテクチャ
ソフトウェア・ファーストの革新的設計アプローチ
Groq の最も革新的な特徴の一つは、ソフトウェア・ファーストのアプローチです。Groq LPU アーキテクチャはソフトウェア・ファーストの原則から始まりました。通常のチップ設計では、ハードウェアを先に設計し、それに合わせてソフトウェアを開発しますが、Groq はこのプロセスを逆にしました。
実際、Groq はコンパイラのアーキテクチャが設計されるまでチップ設計には着手しませんでした。これは、家を建てる前に、その中での生活様式を最適化するための詳細な設計図を完成させるようなものです。このアプローチには以下のような特徴があります:
-
コンパイラが中心的役割:Groq コンパイラはハードウェアにとって二次的ではなく、制御の中心にあります。これにより、ソフトウェアとハードウェアの緊密な統合が実現します。
-
静的なスケジューリング:コンパイラは命令とデータフローを事前に正確にスケジュールできるため、実行時の不確実性を排除し、予測可能なパフォーマンスを実現します。
-
カーネルレス設計:カーネルレスコンパイラにより、新しいモデルの簡単かつ高速なコンパイルが可能になります。これは従来のGPUシステムでは実現困難な利点です。
命令の自動スケジューリングによる効率化
従来のプロセッサでは、命令のスケジューリングは実行時に動的に行われますが、Groq ではコンパイラがすべての命令を事前にスケジュールします。この事前スケジューリングにより、実行時のオーバーヘッドを大幅に削減し、予測可能なパフォーマンスを実現します。
これは、オーケストラの演奏に例えられます。従来のプロセッサは演奏中に指揮者が演奏者に指示を出すのに対し、Groq の方式では演奏前に各演奏者が正確なタイミングと演奏内容を把握し、指揮者なしでも完璧に同期して演奏できるようなものです。
コンパイラ主導のデータフロー制御
Groq の TSP アーキテクチャは、簡素化されたハードウェア設計を通じて決定論を実現し、コンパイラが命令とデータフローを正確にスケジュールすることを可能にしています。
効率的なアセンブリラインを運用するには、各ステップにかかる時間がどれくらいかについて高度な確実性が必要です。タスクの実行にかかる時間に過度のばらつきがあると、そのばらつきはアセンブライン全体に現れます。この課題に対応するため、LPU アーキテクチャは完全に決定論的であり、すべての実行ステップが最小の実行期間(クロックサイクルとも呼ばれる)まで完全に予測可能です。
これにより、ソフトウェア制御されたハードウェアが操作がいつどこで発生し、どれくらいの時間がかかるかを高度な精度で把握できるため、パフォーマンスの予測可能性と一貫性が向上します。
シーケンシャル処理に最適化されたアーキテクチャ
LLM 推論の本質的な課題:シーケンシャル依存性
大規模言語モデル(LLM)推論には、本質的にシーケンシャルな性質があります。次の単語を生成するには前の単語の情報が必要であり、この連続性は並列処理を難しくします。
小説を書くことに例えると、後の章は前の章の内容に依存しており、章を同時に執筆することはできません。同様に、言語モデルは次のトークン(単語の一部)を生成するために、前のすべてのトークンを考慮する必要があります。
GPUが得意とする純粋な並列処理(例:画像処理やバッチ処理)では、この本質的にシーケンシャルな言語モデル推論で最適なパフォーマンスを実現できません。
Groqの解決策:低レイテンシーなシーケンシャル実行
Groq の LPU は、このシーケンシャルな処理のために特別に設計されています。Groq の CEO である Jonathan Ross は次のように説明しています:「他のアーキテクチャは並列計算が得意です。しかし言語の問題は、100番目の単語を生成するには99番目の単語を生成している必要があります。チェスやゴーのゲームと非常に似ていて、言語も同じですが、より大きな空間です。我々はシーケンシャルな問題が非常に得意です」。
Groq の LPU は以下の仕組みでシーケンシャル処理を最適化しています:
-
命令とデータフローの事前スケジューリング:コンパイラがすべての命令を事前にスケジュールすることで、実行時の不確実性を排除します。
-
専用のデータパス:シーケンシャル依存性のあるデータの流れに最適化されたデータパスを提供します。
-
オンチップメモリによる低レイテンシーアクセス:シーケンシャル処理における次のステップに必要なデータへの高速アクセスを実現します。
これらの最適化により、Groq の LPU は低レイテンシーアプリケーションに特に適しており、複雑なシーケンシャル処理を必要とする場合に大きな効果を発揮します。
パフォーマンスベンチマーク
独立したベンチマーク結果が示す驚異的な速度
Groq の LPU は、複数の独立したベンチマークで驚異的なパフォーマンスを示しています。以下の表は、様々なモデルサイズと使用シナリオにおける Groq のベンチマーク結果をまとめたものです:
表3: Groq LPU の主要ベンチマーク結果
ベンチマーク | モデル | Groq LPU 性能 | 比較・注釈 |
---|---|---|---|
LLMPerf | Llama 2 70B | 最大300トークン/秒 | 他クラウド推論プロバイダーの最大18倍の速度 |
ArtificialAnalysis.ai | Llama 2 70B | 241トークン/秒 | 競合ソリューションの約2倍の速度 |
ArtificialAnalysis.ai | Llama 3 8B | 1339トークン/秒 | 小型モデルでの最高速度記録 |
ArtificialAnalysis.ai | Llama 3.1 8B | 886トークン/秒 | 最新モデルでの高速処理能力 |
ArtificialAnalysis.ai | Gemma 7B | 約820トークン/秒 | Google開発の小型モデルでの高速性 |
Groq公式 | Llama 4 Scout | 460+トークン/秒 | 2025年4月時点の最新モデル |
ArtificialAnalysis.ai | Mixtral 8x7B | 480-500トークン/秒 | MoE (Mixture of Experts)モデルでの性能 |
これらのベンチマーク結果は、サードパーティによる独立した測定結果であり、Groqの性能が単なるマーケティング主張ではなく、実証された優位性であることを示しています。
従来の GPU と比較した性能優位性
従来の GPU システムと Groq LPU の性能を同じモデルで比較した結果は以下の通りです:
表4: Mixtral 8x7Bモデルでの処理性能比較
システム | トークン/秒 | 投機的デコーディング | 相対性能 |
---|---|---|---|
8x A100 GPU | 約220 | なし | 基準 (1.0x) |
8x H100 GPU | 約280 | なし | 1.27x |
8x H100 GPU | 約420 | あり | 1.91x |
Groq LPU | 480-500 | なし | 2.18-2.27x |
この性能差は、特に低レイテンシー要件の高いリアルタイムアプリケーションにおいて、Groqに大きな優位性をもたらします。ただし、GPUは様々なワークロードに対応できる汎用性と、トレーニング能力においては依然として優位性があります。
コスト効率性分析
Groq の LPU は、パフォーマンスだけでなく、コスト効率も考慮されています。以下は、ハードウェアとAPI利用の両面からのコスト効率性分析です:
表5: ハードウェアコスト比較
ハードウェア | 価格 | 備考 |
---|---|---|
GroqCard™ Accelerator | 約$20,000 | 単一カード価格 |
NVIDIA H100 | 約$35,000 | 同等クラスのGPU |
NVIDIA A100 | 約$10,000〜$15,000 | 前世代GPU |
SambaNova SN40L | 非公開 | カスタム導入 |
Cerebras CS-2 | 約$2,000,000〜 | ウェハースケールシステム |
表6: Groq Cloud API料金体系(2025年4月現在)
モデル | 入力コスト ($/100万トークン) | 出力コスト ($/100万トークン) | 特徴 |
---|---|---|---|
Llama 3.1 8B | $0.06 | $0.06 | 最もコスト効率の高いモデル |
Llama 3 8B | $0.06 | $0.06 | 安定性と速度のバランス |
Llama 4 Scout | $0.11 | $0.34 | 最新のマルチモーダルモデル |
Mixtral 8x7B | $0.27 | $0.27 | MoEアーキテクチャのモデル |
Gemma 7B | $0.10 | $0.10 | Googleの小型高性能モデル |
Llama 3.3 70B | 非公開 | 非公開 | 大規模高性能モデル |
これらの料金体系は、競合サービスと比較して競争力があり、特に小型モデルのコスト効率は非常に高いです。さらに、Groqの高速処理能力を考慮すると、実質的なコストパフォーマンスはさらに向上します。例えば、応答時間が短縮されることで、ユーザーのエンゲージメントが高まり、ビジネス価値の向上につながる可能性があります。
競合技術との比較
AI推論チップ市場には、Groqの他にも様々なプレイヤーが参入しています。以下の表は、主要な競合技術とGroq LPUとの比較を示しています:
表7: AI推論チップ技術の比較
企業/製品 | アーキテクチャの特徴 | 強み | 制約 | 主なターゲット |
---|---|---|---|---|
Groq LPU | 決定論的実行、オンチップメモリ、アセンブリライン式アーキテクチャ | シーケンシャル処理速度、低レイテンシー、予測可能性 | メモリ容量制限、モデル多様性の制約 | LLM推論に特化 |
Cerebras WSE3 | ウェハースケールチップ、パイプラインパラレリズム | 巨大なオンチップメモリ(850GB)、シングルシステム | 高コスト、設置スペース要件 | 大規模AI訓練と推論 |
SambaNova SN40L | RDU(再構成可能データフローユニット) | 柔軟なアーキテクチャ、大規模モデル対応 | システム複雑性、ソフトウェア最適化の必要性 | エンタープライズAI |
Tenstorrent Blackhole | RISC-Vベース、Metaliumツール | 柔軟性、エネルギー効率、プログラマビリティ | 市場投入の遅れ | 訓練と推論の両方 |
NVIDIA H100/H200 | GPU、Tensorコア、Transformer Engine | 成熟したエコシステム、高い汎用性、広範な採用 | 電力消費、シーケンシャル処理速度 | 訓練と推論の両方 |
AMD MI300 | GPU、MCM設計、大容量HBM | 高いメモリ帯域幅、コスト効率 | ソフトウェアエコシステムの成熟度 | 訓練と推論の両方 |
表8: Llama 3.1 70Bモデル推論性能比較(2025年4月時点)
プラットフォーム | トークン/秒 | TTFT(初トークン時間) | 必要ハードウェア | 特記事項 |
---|---|---|---|---|
Groq LPU | 544 | 0.17秒 | 複数のLPUチップ | 最高の推論速度 |
Cerebras WSE3 | 445 | 0.19秒 | 4ウェハー(336チップ) | 大規模システム |
SambaNova SN40L | 465 | 0.20秒 | 16チップ | 最も効率的なシリコン使用 |
NVIDIA 8xH100 | 280-420 | 0.25秒 | 8枚のH100カード | 投機的デコーディングで速度向上 |
NVIDIA 8xA100 | 220 | 0.30秒 | 8枚のA100カード | 広く採用されている標準 |
表9: 推論チップの主な技術的差異
技術的側面 | Groq LPU | GPU | Cerebras WSE | SambaNova RDU |
---|---|---|---|---|
チップサイズ | 25×29 mm (725 mm²) | 800-1000 mm² | 46,225 mm² (ウェハー全体) | 非公開 |
オンチップメモリ | 230 MB SRAM | 80-120 MB | 40 GB SRAM | 64 GB HBM + SRAM |
メモリバンド幅 | 80 TB/s (オンダイ) | 2-3 TB/s (HBM) | 20 TB/s (オンチップ) | 2.3 TB/s + オンチップ |
プロセスノード | 14nm (v1), 4nm (v2予定) | 4-5nm | 7nm | 5nm |
制御モデル | 決定論的 | 非決定論的 | 準決定論的 | 準決定論的 |
推論最適化 | シーケンシャル処理 | 並列バッチ処理 | 並列・パイプライン処理 | データフロー処理 |
Groq の限界と適用領域
技術的制約
Groq の LPU は非常に印象的なパフォーマンスを示していますが、いくつかの技術的制約も持っています:
表10: Groq LPUの主な制約と課題
制約 | 詳細 | 影響 |
---|---|---|
メモリ容量の制限 | チップ上に HBM を搭載せず、230MB SRAM のみに依存 | 大規模モデルには複数チップが必要 |
モデル多様性の制約 | 単一モデル運用に最適化された設計 | 複数モデル・カスタムモデル対応が課題 |
ソフトウェアエコシステム | 比較的新しいプラットフォームでエコシステム発展途上 | 開発者ツールやライブラリの制約 |
ハードウェア汎用性 | 推論特化設計のためトレーニングには不向き | トレーニングには別システムが必要 |
市場シェア | 新興企業として確立したプレイヤーと競争 | エンタープライズ採用への障壁 |
最適なユースケース
一方で、Groq の LPU は特定のユースケースで非常に効果的です:
表11: Groq LPUの最適なユースケース
ユースケース | 要件 | Groq LPUの優位性 |
---|---|---|
リアルタイム対話システム | 低レイテンシー、高スループット | 人間の思考速度を上回る応答性 |
シングルモデル高トラフィックAPI | 一貫したモデルでの高負荷処理 | コスト効率の良いスケーリング |
ストリーミング生成 | 連続的なトークン生成の高速化 | 人間の読解速度を上回る生成速度 |
エネルギー効率重視環境 | 処理あたりの低電力消費 | GPUと比較して優れた電力効率 |
検索拡張生成 (RAG) | 複雑な処理フローの低レイテンシー実行 | エンドツーエンドの処理速度向上 |
Groq の将来展望
次世代 LPU の開発
Groq は継続的に技術を進化させています。LPU の第 2 世代(LPU v2)はサムスンの 4nm プロセスノードで製造される予定です。初代 LPU は 14nm プロセスで製造されていたことを考えると、プロセス技術の微細化によって大幅なパフォーマンス向上とエネルギー効率の改善が期待できます。
微細プロセスへの移行により、チップあたりのトランジスタ数が増加し、同時に電力効率も向上するため、次世代 LPU では現在の性能をさらに上回る推論速度の実現が期待されています。
大規模モデル対応の強化
現在の Groq LPU の主な制約の一つはメモリ容量ですが、次世代製品ではこの制約の緩和が期待されています。特に、より効率的なメモリアーキテクチャや高密度のオンチップメモリの導入により、単一チップで処理できるモデルサイズの拡大が見込まれます。
また、SambaNova が最近 Llama 3.1 405B モデルに対する推論の新記録を打ち立てたことから、Groq も大規模モデルへの対応強化を進めていると考えられます。現在 Groq はより小型のモデルで優位性を示していますが、今後はより大規模なモデルでもコスト効率の良いパフォーマンスを提供することが期待されています。
市場での位置づけと成長
Groq は最近資金調達にも成功し、事業拡大を進めています。2024年8月には6.4億ドルを調達し、評価額は28億ドルに達したと報じられています。また、サウジアラビアのAramco Digitalとの提携により、中東地域における大規模なAI推論センターを構築する計画が進行中です。
市場アプローチとしては、「エンドユーザーに直接アプローチし、ハードウェア自体を抽象化する戦略」を採用しています。最終目標は可能な限り最低のレイテンシーを実現することであり、この明確なフォーカスが、従来のハードウェアベンダーとは異なる市場戦略として機能しています。
まとめ
Groq Cloud の高速な LLM 推論能力は、革新的な LPU アーキテクチャと「Compiler-in-the-Loop」設計思想に基づいています。従来の GPU とは根本的に異なるアプローチにより、特にシーケンシャル処理が重要な言語モデル推論において卓越したパフォーマンスを実現しています。
主な強みとしては、決定論的実行モデル、オンチップメモリとコンピュートの統合、ソフトウェア主導の設計、そして低レイテンシーシーケンシャル処理の最適化が挙げられます。これらの技術的優位性により、Groq は特にリアルタイム応答が必要なアプリケーションや、単一モデルを多数のユーザーに提供するサービスで価値を発揮します。
一方で、メモリ容量の制限や複数モデル対応における課題など、いくつかの制約も存在します。また、大規模モデルを扱う場合のコスト効率についても考慮が必要です。
今後、プロセス技術の進化とメモリアーキテクチャの改善により、これらの制約は徐々に解消されていくと期待されます。Groq の継続的な技術革新と戦略的な市場アプローチにより、AI 推論市場における重要なプレーヤーとしての地位を確立しつつあります。
最終的に、Groq Cloud の技術は、AI モデルのレスポンス速度という従来の限界を打ち破り、より自然でリアルタイムな AI 体験を可能にする大きな一歩となっています。
参考文献
-
Groq - What is a Language Processing Unit?
https://groq.com/wp-content/uploads/2024/07/GroqThoughts_WhatIsALPU-vF.pdf -
The Architecture of Groq's LPU - by Abhinav Upadhyay
https://blog.codingconfessions.com/p/groq-lpu-design -
What is a Language Processing Unit? - Groq is Fast AI Inference
https://groq.com/the-groq-lpu-explained/ -
Groq is Fast AI Inference - Pricing
https://groq.com/pricing/ -
Groq - Wikipedia
https://en.wikipedia.org/wiki/Groq -
Why SambaNova's SN40L Chip is The Best for Inference
https://sambanova.ai/blog/sn40l-chip-best-inference-solution -
Deep|AI ASIC part III: Groq, SambaNova, Tenstorrent, Cerebras
https://fundamentalbottom.substack.com/p/longai-asic-part-iii-groq-sambanova -
AI Chip Vendors: A Look At Who's Who In The Zoo In 2024
https://cambrian-ai.com/ai-chip-vendors-a-look-at-whos-who-in-the-zoo-in-2024/ -
Llama 4 Live Today on Groq — Build Fast at the Lowest Cost
https://groq.com/llama-4-now-live-on-groq-build-fast-at-the-lowest-cost-without-compromise/ -
Why Nvidia's rivals think they have a chance to topple it
https://www.techzine.eu/blogs/infrastructure/127966/why-nvidias-rivals-think-they-have-a-chance-to-topple-it/ -
Groq - Intelligence, Performance & Price Analysis | Artificial Analysis
https://artificialanalysis.ai/providers/groq -
Groq's $20,000 LPU chip breaks AI performance records
https://cryptoslate.com/groq-20000-lpu-card-breaks-ai-performance-records-to-rival-gpu-led-industry/
Discussion