🚀

【完全無料】Cipher MCP + Ollama + elyza-japaneseで日本語AI開発環境を構築してみた

に公開

はじめに

みなさん、お疲れ様です!💫

今回はCipher MCP(Model Context Protocol)とOllamaを使って、完全無料で日本語対応のAI開発環境を構築してみました。特にWindows環境での導入手順と、日本語特化のelyza-japaneseモデルの活用について詳しく紹介します!

🎯 今回の目標

  • Cipher MCP: メモリ機能付きAIエージェント
  • Ollama: ローカル実行可能な軽量LLM環境
  • elyza-japanese: 日本語に特化したLLaMA 3ベースモデル
  • Claude Code: 統合開発環境での活用

これらを組み合わせて、APIキー不要・完全無料の日本語AI開発環境を作り上げます!✨

🛠️ 事前準備

システム要件

  • OS: Windows 10/11
  • RAM: 8GB以上推奨(モデルサイズによる)
  • ストレージ: 10GB以上の空き容量
  • Node.js: LTS版(v20以上)

必要なツール

# Node.js関連
npm install -g @byterover/cipher

# Git(WSL環境推奨)
git --version

🚀 Step 1: Ollamaのインストール

Windows環境でのOllamaセットアップ

まず、公式サイトからOllamaをダウンロード:

https://ollama.com/download

インストール後、動作確認:

# 絶対パスで実行(Windows環境での注意点)
"C:\Users\%USERNAME%\AppData\Local\Programs\Ollama\ollama.exe" --version

サーバー起動

# バックグラウンドでOllamaサーバーを起動
"C:\Users\%USERNAME%\AppData\Local\Programs\Ollama\ollama.exe" serve

📦 Step 2: elyza-japaneseモデルのダウンロード

日本語特化モデルの取得

# elyza-japaneseモデル(4.9GB)をダウンロード
ollama pull dsasai/llama3-elyza-jp-8b
ダウンロード進行状況の例
pulling manifest ⠋
pulling 91553c45080b: 97% ▕█████████████████ ▏ 4.8 GB/4.9 GB  21 MB/s  5s
pulling 7737014881a9: 100% ▕██████████████████▏  147 B
pulling 8ab4849b038c: 100% ▕██████████████████▏  254 B
pulling c0aac7c7f00d: 100% ▕██████████████████▏  128 B
pulling f704a8a590af: 100% ▕██████████████████▏  487 B
verifying sha256 digest
writing manifest
success

埋め込みモデルのダウンロード

Cipher MCPのメモリ機能に必要な埋め込みモデルも取得:

# 埋め込み用モデル(669MB)
ollama pull mxbai-embed-large

インストール確認

ollama list
NAME                                ID              SIZE      MODIFIED       
mxbai-embed-large:latest            468836162de7    669 MB    13 seconds ago    
dsasai/llama3-elyza-jp-8b:latest    ecfdd92e89f6    4.9 GB    7 minutes ago

⚙️ Step 3: Cipher MCPの設定

Cipherのインストール

npm install -g @byterover/cipher

設定ファイルの編集

Cipherの設定ファイル cipher.yml を編集します:

cipher.yml
# Choose ONLY ONE of the following LLM providers
llm:
  # Ollama Configuration for elyza-japanese
  provider: ollama
  model: dsasai/llama3-elyza-jp-8b
  maxIterations: 50
  baseURL: http://localhost:11434

# Embedding configuration
embedding:
  type: ollama
  model: mxbai-embed-large
  baseUrl: http://localhost:11434
  dimensions: 1024

# MCP Servers (optional)
mcpServers: {}

Windows用バッチファイルの作成

Windows環境でのパス問題を解決するため、専用のバッチファイルを作成:

cipher-mcp.bat
@echo off
chcp 65001 >nul
set ANTHROPIC_API_KEY=test-key-placeholder
set OLLAMA_BASE_URL=http://localhost:11434
"C:\PROGRA~1\nodejs\node.exe" "%APPDATA%\npm\node_modules\@byterover\cipher\dist\src\app\index.cjs" --mode mcp
バッチファイルのポイント
  • chcp 65001: UTF-8エンコーディングを設定(日本語対応)
  • PROGRA~1: "Program Files"の8.3形式パス表記
  • OLLAMA_BASE_URL: ローカルOllamaサーバーへの接続設定

🔗 Step 4: Claude CodeとMCPの連携

MCP設定の追加

Claude Codeの設定ファイル(.claude.json)にCipherを追加:

{
  "mcpServers": {
    "cipher": {
      "type": "stdio",
      "command": "C:\\Users\\%USERNAME%\\AppData\\Roaming\\npm\\cipher-mcp.bat",
      "args": [],
      "env": {}
    }
  }
}

接続確認

claude mcp list
Checking MCP server health...

serena: cmd /c uv tool run --from git+https://github.com/oraios/serena serena start-mcp-server --context ide-assistant --project %cd% - ✓ Connected
context7: https://mcp.context7.com/sse (SSE) - ✓ Connected
cipher: C:\Users\%USERNAME%\AppData\Roaming\npm\cipher-mcp.bat  - ✓ Connected

🎉 動作確認とテスト

Cipherの起動ログ確認

正常に起動すると、以下のようなログが出力されます:

[CIPHER-MCP] Log redirection activated: C:\Users\%USERNAME%\AppData\Local\Temp\cipher-mcp.log
13:25:14 INFO: MCP Manager: MCPManager initialized
13:25:14 INFO: [VectorStoreManager] Vector storage system connected
13:25:14 INFO: [StorageManager:Database] Connected successfully
13:25:14 INFO: [StorageManager] Storage system connected

日本語対応の確認

elyza-japaneseモデルは日本語に特化しているため、自然な日本語での対話が可能です。

📊 構成まとめ

コンポーネント 役割 サイズ 費用
Ollama ローカルLLM実行環境 ~100MB 無料
dsasai/llama3-elyza-jp-8b 日本語特化LLM 4.9GB 無料
mxbai-embed-large 埋め込みモデル 669MB 無料
Cipher MCP メモリ機能付きエージェント ~50MB 無料

総容量: 約5.7GB
総費用: 完全無料 🎉

🔧 トラブルシューティング

よくある問題と解決法

1. パス関連エラー

Error: Cannot find module 'C:\Users\YourUsername\Documents\...'

解決法: 8.3形式パスの使用

"C:\PROGRA~1\nodejs\node.exe"

2. 文字化け問題

解決法: UTF-8エンコーディングの設定

chcp 65001 >nul

3. モデル認識エラー

解決法: Ollamaサーバーの起動確認

ollama list
ollama serve  # 必要に応じて再起動

📈 パフォーマンスと活用例

メモリ使用量

  • アイドル時: 約2GB
  • 推論実行時: 約6-8GB
  • 推奨RAM: 8GB以上

活用シーン

  1. コード生成: 日本語コメント付きのコード生成
  2. 技術文書作成: 仕様書やREADMEの自動生成
  3. デバッグ支援: エラー解析と修正提案
  4. リファクタリング: コード改善の提案

🌟 まとめ

今回の構築により、以下のメリットを得られました:

完全無料: APIキー不要でローカル実行
日本語特化: elyza-japaneseによる自然な日本語対話
メモリ機能: Cipher MCPによる文脈保持
プライバシー: ローカル実行によるデータ保護
カスタマイズ性: 設定の自由度が高い

🔮 今後の展望

  • ファインチューニング: 特定ドメインでのモデル改良
  • RAG連携: ベクトルデータベースとの統合
  • チーム開発: 共有環境での活用
  • 他モデル対応: より大きなモデルへのアップグレード

📚 参考資料


いかがでしたでしょうか?🤔

無料でここまでの開発環境が構築できるのは素晴らしいですね!皆さんもぜひ試してみて、感想や改善点があればコメントで教えてください〜✨

Happy Coding! 🚀💫

Discussion