☺️
CerebrasのAPIが利用可能に
はじめに
以前記事でご紹介したCerebrasについて、APIのWaitlistに登録していました。
昨日(2024/10/9)、ついにAPI利用の招待メールが届きました!APIのPlayground画面
API利用可能になると下記URLが開けるようになります。
試しにPlaygroundで質問してみましょう。
速いですね!
費用はどのくらいか
現状無料プランのみのようです。
有料の場合は従量課金で、Llama3.1 8Bで1M tokenあたり$0.2、Llama3.1 70Bで1M tokenあたり$1.2となるようです。GPT-4o miniと比べると高いですが、現時点で現実的なコスト感かなと思いました。
ColabでPythonからAPI呼び出しをためしてみる
Cerebras社のドキュメントにサンプルコードがあり、参考にしてPythonを組んでみました。
pip install cerebras_cloud_sdk
CEREBRAS_API_KEY="XXX"
import os
from cerebras.cloud.sdk import Cerebras
client = Cerebras(
api_key=CEREBRAS_API_KEY
)
chat_completion = client.chat.completions.create(
messages=[
{
"role": "user",
"content": "札幌のおすすめのスポットを5つ教えて",
}
],
model="llama3.1-70b",
)
# LLMからのResponse結果のみを出力
print(chat_completion.choices[0].message.content)
実行してみた結果がこちら。
普通に爆速ですね。笑
さいごに
いかがでしたか。高速にLLMの回答を出力できるCerebrasでついにAPIが利用できるようになった記事を書きました。生成スピードがあがることでLLMの利用用途が広がっていくので、今後の動きに注目ですね!
Discussion