Zenn
Log in
llama.cpp
このトピックを指定するには
llamacpp
と入力
フォロー
Articles
48
Scraps
11
articles
Trending
Alltime
Latest
🐳
1.58-bit版DeepSeek R1の日本語性能評価
金のニワトリ
3ヶ月前
54
🦉
llama.cpp の動かし方と量子化手法
Motofumi Kashiwaya
in
Tech Blog - Turing
2023/12/17
100
😎
【llama.cpp】誰でもできるgguf変換
Sald ra
2024/03/23
39
🦅
Swiftでllama.cppを使いたい!
Miwa
in
Tech Blog - Turing
2023/12/21
35
🛣️
Xwin-LM-70B-V0.1をOpen Interpreterから使ってみる。
🤨🤔😑😨😱
2023/09/23
21
🐈
GGUFファイルの量子化タイプについて
bilzard
2ヶ月前
19
🎉
【備忘録】llama-cpp-python+pyinstallerでexe配布するときの注意点
Sald ra
2024/01/06
19
🆑
【CUDA非依存】CLBlast+llama-cpp-pythonでLLM推論入門
Sald ra
2024/02/03
15
🎀
Rinna-3.6B を llama.cpp で CPU 動作のメモ
syoyo
2023/06/01
19
🦙
JavaでローカルLLMを動かす(llama.cpp, Spring AI)
Hideyuki Kagami
2023/12/31
6
🥷
llama.cppで語尾を”ござる”に変えるloraを作る
zaiwa
2023/11/21
16
🦙
llama.cpp でフルの学習メモ
syoyo
2023/06/25
10
🦙
【M3mac環境】llama.cppを使ったGGUF変換からOllamaで実行までの手順
k_zumi_dev
4ヶ月前
9
📘
オンデバイス(ローカル)LLMとLangChainを利用したRAGチャットアプリの作り方
tsutof
2024/02/04
24
🚀
llama.cpp で CPU で Qwen2-VL を試す(72B 0.4 toks/sec)
syoyo
4ヶ月前
6
🦜
【LLM】CPU環境でLlama-3-ELYZA-JP on gRPCを試してみた
ゆっきー。
2024/09/24
4
🙄
OllamaがローカルLLMをどうやって呼び出しているのか
laiso
2024/05/19
18
🦙
llama.cppを使って、EvoLLM-JP-v1-10Bを自分で量子化した手順
mganeko
2024/04/01
6
🤖
Raspberry Pi 5にUbuntuをヘッドレスでセットアップしてローカルLLMを動かす
susumuota
2024/03/27
4
💬
Mac上で動作するオンデバイスのチャットアプリをGradioでサクッと作ってみる
tsutof
2024/01/01
5
📕
M1/M2 MacのローカルでLLAMA2を動かしてみる(llama.cpp編)
zaiwa
2023/07/23
8
👻
Llama.cppのデモアプリをCPU-onlyモードでビルドしてiPhoneにデプロイする
bilzard
2ヶ月前
3
🌐
Raspberry Pi 5 で高性能な日本語 LLM RakutenAI-7B-chat を動かす
susumuota
2024/03/30
4
🦙
JavaでローカルLLMを動かすPart3: Spring AIとpgvectorとJHipsterを使ってRAGを実装
Hideyuki Kagami
2024/03/04
2
💎
Raspberry Pi 5上でGoogleの軽量LLM Gemma 2Bを動作させてみた
tsutof
2024/02/25
6
🦙
【cuBLAS】llama-cpp-pythonでのGPU推論入門
Sald ra
2024/01/31
6
🦙
JavaでローカルLLMを動かすPart2: OpenAI API互換サーバをJHipsterで実装
Hideyuki Kagami
2024/01/10
1
🦾
llama.cppを使ってMacのローカルPC内にLLMサーバを立てる
zaiwa
2023/12/07
5
🍷
【llama.cpp】Llama-2-70BとXwin-LM-70Bを出力を比較する。
🤨🤔😑😨😱
2023/09/22
3
👩
rinna/japanese-gpt2-mediumをgguf化してllama.cppで動かす
Miwa
2024/02/29
7
📻
llama.cppのテキスト生成パラメータを調整してみる
tsutof
2024/01/03
3
⛳
数学特化のローカルLLM、Xwin-Math-70BをGPT-4と比較する
🤨🤔😑😨😱
2023/11/26
2
😊
llama.cppでHuggingFaceにあるモデルを自分で量子化して動かす方法
🤨🤔😑😨😱
2023/11/26
10
📖
Mac M2 チップで lm-evaluation-harness 2
Tsutomuuu
17日前
1
🦔
Windowsマシン に llama-cpp-python を入れても BLAS not found でGPUが使ってもらえない
hellohazime
2024/03/14
2
💫
llama.cpp で LLM を AWS Lambda で動かしてみる
かわら
in
Fusic 技術ブログ
2024/02/10
7
👋
dockerでGPTQ量子化されたLLMを動かす
🤨🤔😑😨😱
2023/11/24
😀
GGUF型式への変換でメモリ不足になる場合の回避策
epsilon phoenix
2024/10/21
1
🦙
llama-cpp-pythonをMacで動かしているときにやたら遅いと思ったら
Naosuke
2024/02/19
1
🦙
Google Colabでllama.cpp
Naosuke
2024/02/18
2
🐋
Ryzen + 128 GB で DeepSeek-R1 671B 1.58bit(130GB) 味見(0.4 toks/sec)
syoyo
3ヶ月前
6
🤏
llama.cpp(with cuda) install
forestsource
2024/04/03
🍷
japanese-stablelm-instruct-beta-70bをllama.cppで試す
🤨🤔😑😨😱
2023/11/05
👋
M1/M2 Macのローカルでjapanese-stablelm-instruct-gammaを使う方法
zaiwa
2023/10/25
1
📙
M1/M2 Macのローカルで日本語対応のLLMを実行する(ELYZA版)
zaiwa
2023/10/24
11
💬
【備忘録】Windows11のGPUでllama.cppを動かす手順
T_Sumida
3ヶ月前
1
🔣
今更だけど DeepSeek R1 使ってみた(Ollama on Jetson)
Ippei
2ヶ月前
2
📖
特化型llm(Doujinshi-1.8b)の開発報告書③:特定のドメインに特化したsft用データセット(コーパス)の作成
puwaer
1ヶ月前
2