Zenn
Closed7

スマホでローカルLLMを動かしたい

Yamamoto Yuji / はまあYamamoto Yuji / はまあ
日本語でiPhoneでローカルLLMを使うのにおすすめのモデル

iPhoneでローカルLLMを日本語で使用する場合、以下のモデルがおすすめです:

  1. Llama-3-ELYZA-JP-8B-AWQ: Meta社のLlama-3をベースにELYZA社が日本語対応させたモデルです。量子化により一般的なノートPCでも動作可能な小さいサイズになっており、iPhoneでも使用できる可能性が高いです[3]。

  2. Mistral 7B v0.1: 比較的小さなサイズで優秀なパフォーマンスを発揮します。Q3_K_S (3.16GB) やQ4_K_S (4.14GB) の量子化バージョンがiPhoneで動作することが確認されています[1]。

  3. Calm 2 7B Chat: 日本語LLMとして知られており、Q3_K_S (3.47GB) やQ4_K_S (3.12GB) の量子化バージョンがiPhoneで使用可能です[1]。

  4. Gemma-2-2b-jpn-it: Googleが開発したGemma2の日本語チューニング2Bモデルです。エントリークラスのGPUやモバイルGPUでも実用的な速度で動作します[5]。

これらのモデルを使用する際は、LLMFarmやOllamaなどのアプリケーションを通じてiPhoneにインストールできます[2][7]。ただし、モデルのサイズやiPhoneの性能によっては動作が制限される場合があるため、使用する端末のスペックを確認することをおすすめします。

Citations:
[1] https://zenn.dev/shu223/articles/localllm-ios
[2] https://note.com/izai/n/ncd3315f87534
[3] https://chatgpt-enterprise.jp/blog/local-llm-japanese/
[4] https://www.docswell.com/s/shu223/ZDE8XL-llm-ios
[5] https://note.com/catap_art3d/n/na046217a6246
[6] https://weel.co.jp/media/tech/openelm/
[7] https://qiita.com/kazu_ppp/items/beef492ef1df10eaef2d
[8] https://pc.watch.impress.co.jp/docs/column/nishikawa/1629215.html
[9] https://gigazine.net/news/20250131-sakana-ai-tinyswallow-taid/
[10] https://note.com/rrrrrrrrrr_666/n/n703f2cc721ee


Perplexity の Eliot より: pplx.ai/share

Yamamoto Yuji / はまあYamamoto Yuji / はまあ

fullmoonをインストールしてみた。

モデルはdeepseek-r1 -distill-qwen-1.5b-8bit

あれ...モデル4個しかない?

Hugging Faceモデルは使えなさそうなので引退

Yamamoto Yuji / はまあYamamoto Yuji / はまあ

次にPocketPal AIをダウンロード。

サインアップもアンケートもクレカ登録もない。いきなりモデルダウンロードw

標準で出てくるモデルは少ないが、Hugging Faceから好きなモデルをダウンロードできる。(これ重要

先日出た日本語に定評のあるsarashina2.2を使いたかったので、一番ダウンロード数が多かったsarashina2.2-3b-instruct-v0.1-Q8-0.gguf
を採用

ちょうはやい

このスクラップは1ヶ月前にクローズされました
ログインするとコメントできます