⛳
ローカルLLMを動かしてみた
初めに
以前ローカルでLLMを動かした際、どうやって動かしたのか
-
ollamaをインストールします
https://ollama.com/download/windows -
pipでollamaライブラリをインストールする
'''git
pip install ollama
''' -
pythonで下記コードを実行する
'''python
host = 'http://localhost:11434'
client = ollama.Client(host=host)
prompt = "丁寧な回答をしてください"
client.generate(
model=self.model_name,
prompt=prompt,
options={
'temperature': 0.3,
'top_p': 0.9,
'max_tokens': 500,
}
)
'''
Discussion