☺️

CerebrasのAPIが利用可能に

2024/10/10に公開

はじめに

以前記事でご紹介したCerebrasについて、APIのWaitlistに登録していました。
https://zenn.dev/acntechjp/articles/283733e6262071
昨日(2024/10/9)、ついにAPI利用の招待メールが届きました!

APIのPlayground画面

API利用可能になると下記URLが開けるようになります。
https://cloud.cerebras.ai/
開くとPlayground画面になり、APIをチャット経由で試すことができます。

試しにPlaygroundで質問してみましょう。
速いですね!

費用はどのくらいか

現状無料プランのみのようです。
有料の場合は従量課金で、Llama3.1 8Bで1M tokenあたり$0.2、Llama3.1 70Bで1M tokenあたり$1.2となるようです。GPT-4o miniと比べると高いですが、現時点で現実的なコスト感かなと思いました。

ColabでPythonからAPI呼び出しをためしてみる

Cerebras社のドキュメントにサンプルコードがあり、参考にしてPythonを組んでみました。

pip install cerebras_cloud_sdk
CEREBRAS_API_KEY="XXX"
import os
from cerebras.cloud.sdk import Cerebras

client = Cerebras(
    api_key=CEREBRAS_API_KEY
)

chat_completion = client.chat.completions.create(
    messages=[
        {
            "role": "user",
            "content": "札幌のおすすめのスポットを5つ教えて",
        }
    ],
    model="llama3.1-70b",
)

# LLMからのResponse結果のみを出力
print(chat_completion.choices[0].message.content)

実行してみた結果がこちら。
普通に爆速ですね。笑

さいごに

いかがでしたか。高速にLLMの回答を出力できるCerebrasでついにAPIが利用できるようになった記事を書きました。生成スピードがあがることでLLMの利用用途が広がっていくので、今後の動きに注目ですね!

Accenture Japan (有志)

Discussion