Closed5

クロスプラットフォーム・マルチLLMプロバイダ対応のMCPクライアント「Dive」を試す

kun432kun432

GitHubレポジトリ

https://github.com/OpenAgentPlatform/Dive

Dive AI Agent 🤿 🤖

Diveは、関数呼び出し機能をサポートするあらゆるLLMとシームレスに統合するオープンソースのMCPホストデスクトップアプリケーションです。 ⬨


referred from https://github.com/OpenAgentPlatform/Dive

機能 🏯

  • 📊 ユニバーサルLLMサポート: ChatGPT、Anthropic、Ollamaおよび OpenAI互換モデルと互換性あり
  • 🔻 クロスプラットフォーム: Windows、MacOS、Linuxで利用可能
  • 🔄 モデルコンテキストプロトコル: stdioとSSEモードの両方でシームレスなMCP AIエージェント統合を実現
  • 📍 多言語サポート: 繁体字中国語、簡体字中国語、英語、スペイン語に対応し、今後さらに追加予定
  • ⚙️ 高度なAPI管理: 複数のAPIキーとモデル切り替えをサポート
  • 🔡 カスタム指示: パーソナライズされたシステムプロンプトによるAIの動作調整
  • 🔄 自動更新メカニズム: 最新のアプリケーション更新を自動的にチェックしてインストール

最近の更新(2025/3/14)

  • 📍 スペイン語翻訳: スペイン語言語サポートを追加
  • 🔖 拡張モデルサポート: Google GeminiとMistral AIモデルの統合を追加
kun432kun432

今回はローカルのMacで。インストールは、インストーラを実行するだけ。2025/04/09時点の最新はv0.7.6だった。

https://github.com/OpenAgentPlatform/Dive/releases/tag/v0.7.6

起動するとOpenAI APIキーが求められるので入力。モデルが選択できるようになるので、選択して保存。

なお、OpenAI以外にも以下のプロバイダに対応している様子。

完了。既にツールのアイコンに"1"とある。これをクリック。

ここでMCPサーバを設定するみたい。"echo"というMCPサーバが登録されている。

ドキュメントにある通り、これはデフォルトで用意されているものらしい。

MCPヒント

システムにはデフォルトのエコーMCPサーバーが付属していますが、LLMはMCPを通じてより強力なツールにアクセスできます。(snip)

クリックするとツールの説明が表示される。名前の通り、入力をそのまま返すものかな?

一応試してみる。元の画面に戻って適当に入力。

とりあえずMCPサーバとやりとりして応答が返っているのがわかる。

kun432kun432

GitHubのMCPサーバを追加してみる。左のメニューからツール管理画面を開く。

"Add"をクリック

設定はJSONを直接入力する。READMEを見る限り、Claude Desktopとかと同じフォーマットで良いみたい。余談だけど、このフォーマットって標準化されてるのかな?"mcpServers"になっていないので独自フォーマットなのか?とか考えてしまった。

GitHubのMCPサーバの設定を追加して保存

追加された。元々あった"echo"も残ってる。まるっとペーストしたのでechoは消えるのかな?と思ったけど。

どうやら全部のJSONは"Edit Config"で設定できるみたい。

で、"Add"の方は常に1つを登録すると。あぁ、なるほど。だから "mcpServers" ではなく "mcpServer" なのね。で、"mcpServers" としてここで登録してもよしなにやってくれると。

閑話休題。元の画面に戻ってGitHub MCPサーバが使えるか試してみる。

GitHub MCP経由で情報を参照して解凍している。

エージェント的に複数回ツールを実行したりも。

kun432kun432

まとめ

シンプルできれいなインタフェースでよいのではなかろうか。IDE以外のクライアントとしてはClaude Desktopぐらいしか知らないけど、OpenAIやGeminiなんかが使えて、IDEのゴテゴテ感がないので、エンジニア以外の人にも使いやすいのではないかと思う。

kun432kun432

APIキーをセットするので当然ながらLLMの料金は従量課金にはなる。Claude Desktopの場合、Claude.aiのサブスク範囲内で使えるってところはメリットだよね。

このスクラップは5ヶ月前にクローズされました