🌐

インテル® Xeon® プロセッサーによる大規模言語モデル (LLM) パフォーマンスの加速化

2024/10/29に公開

【開発と活用を推進するインテルの AI】
インテルはクラウドからデータセンター、エッジにおいて、あらゆる場所での AI 活用を目指す、ソフトウェアやハードウェアでの AI 開発、さらには AI ソリューションへの活用を動画で解説するWebサイトを公開しています。
https://www.intel.co.jp/content/www/jp/ja/artificial-intelligence/ai-development-and-utilization.html

<AI 活用を動画で学ぶ>
インテルのエキスパートたちが、ソフトウェアやハードウェア、AI ソリューションに関してのノウハウを動画で解説。今回ご紹介するのは、「推論 / エッジ推論」
学習によって作成された推論モデルのエッジへの実装や、効率的な推論の実行など、推論に関して紹介します。

タイトル:
インテル® Xeon® プロセッサーによる大規模言語モデル (LLM) パフォーマンスの加速化

大規模言語モデル (LLM) の用途全てにおいて高価な GPU が唯一の選択肢なのでしょうか?用途やコストによっては汎用的なインテル® Xeon® プロセッサーがバランスの良さで最適な選択肢になります。このセッションでは、インテル® Xeon® プロセッサーでの LLM 運用を実現するために有効な、PyTorch 向けインテル® エクステンションがサポートしている LLM 向けの最適化について紹介します。

https://www.intel.co.jp/content/www/jp/ja/artificial-intelligence/ai-development-and-utilization.html

是非この機会にAI Everywhere を実現するインテルのソリューションをご覧ください!

Discussion