🦙

OllamaでMistralを動かしてみる

2023/10/06に公開

はじめに

  • Mistralという7Bモデルの性能が良いらしいので動かしてみたい
  • Ollamaというツールを使うとローカルLLMを簡単に動かせるらしい
  • ということでOllamaでMistralをローカルPC上で動かしてみた

環境

  • OS: WSL2 Ubuntu 22.04
  • GPU: なし
  • メモリ: 16GB

Mistralの概要

  • Mistral 7B The best 7B model to date, Apache 2.0
  • Mistral AI社開発の7Bモデル
  • Apache2.0ライセンスで商用利用可能
  • ベンチマークでLLaMa 13Bを超える性能を出しているらしい
    • "Math"や"Code"の成績が良い
    • mistral_7b

Ollamaのインストール

$ curl https://ollama.ai/install.sh | sh
  • インストールできたことを確認
$ ollama --help
Large language model runner

Usage:
  ollama [command]

Available Commands:
  serve       Start ollama
  create      Create a model from a Modelfile
  show        Show information for a model
  run         Run a model
  pull        Pull a model from a registry
  push        Push a model to a registry
  list        List models
  cp          Copy a model
  rm          Remove a model
  help        Help about any command

Flags:
  -h, --help   help for ollama

Ollamaサーバの起動

  • モデルのダウンロードや起動のために必要
$ ollama serve
2023/10/06 02:48:22 images.go:996: total blobs: 4
2023/10/06 02:48:22 images.go:1003: total unused blobs removed: 1
2023/10/06 02:48:22 routes.go:564: Listening on 127.0.0.1:11434
2023/10/06 02:48:22 routes.go:584: Warning: GPU support may not enabled, check you have installed install GPU drivers: nvidia-smi command failed

Mistralモデルのpull

  • 以下のコマンドでMistralモデルをpullできる
$ ollama pull mistral
  • タグ無しだと7Bモデルの4bit量子化版がダウンロードされるよう
  • タグで量子化等のオプションも指定できそう

Mistralモデルの実行

$ ollama run mistral
>>> 自己紹介して
Hi, I'm an AI language model designed to help you find information and answer your questions. How can I assist you today?

>>> 日本語はわかる?
    
申し訳ありがとうございます。私は日本語を理解できます。どのように彼女を助けられますか?

感想

  • Ollamaは簡単にローカルLLMを動かせて便利
  • Mistralは日本語苦手そう

Discussion