✨
Mistral-7BをGoogleColabで試してみた
この記事はGoogle Colabの無料版T4での動作を確認しています。
なので、requirementはGoogleアカウントになります
Mistral-7Bとは
Google Colabで動かすにはGGUFファイルを使用します。
なので、requirementはGoogleアカウントになります。
GGUFとGGMLは、特にGPT(Generative Pre-trained Transformer)のような言語モデルの文脈で、推論用のモデルを保存するために使用されるファイル形式です。
TheBlokeさんが公開しているモデルを利用します。
手順は以下の通りです。
- ggufファイルをダウンロード
- llama-cppをインストール
- モデルをロードする プロンプトを作成
- プロンプトでMistral-7Bモデルを呼び出す
Jupyter notebook
下記は上記のpromptを実行した結果になります。
I feel my heart beating faster than light
You light up my world, you make me feel alive
Oh, darling, I need your love to survive
Discussion