🧱

日本語入力システムSumibiの開発 part7:DeepSeek V3を試してみた

に公開

はじめに

興味本位でDeepSeek V3を試してみた話です。
私が開発したローマ字仮名漢字変換「Sumibi」はOpenAIのAPIを呼び出してローマ字から漢字変換するOSSです。DeepSeekのAPIがOpenAIのAPI互換であることがわかったので、接続先を変え、DeepSeekを使ってみました

OpenAI Chat completion API互換サービス一覧(ローカルLLM含む)

DeepSeek以外にも、Sumibiの変換エンジンとして使えるサービスはたくさんあります。
以下は2025年5月5日時点でChatGPTのDeep Researchで出力された一覧です。事実確認はしていないので、必ずしも正確ではない可能性があります。また、今回試してみたDeepSeekは含まれていないのでご注意ください。


下表は、OpenAI の /v1/chat/completions エンドポイントにドロップイン互換となる代表的な API サービスをまとめたものです。各サービスは、既存の OpenAI クライアントを使ってエンドポイント URL と API キーを差し替えるだけで利用できます。対応モデルや料金・商用可否・ホスティング形態も併せて示しています。

サービス名(提供元) 対応モデル例 料金体系 商用利用 ホスティング 備考
Google Gemini API (Google) Gemini 1.5/2.0(Flash/Ultra含む) 無料枠あり(例:無料で500リクエスト/日)後は従量課金制。Gemini-2.0-Flashではテキスト入力$0.10/1M、出力$0.40/1Mなど。 クラウド(Google Cloud) OpenAI API互換エンドポイントあり(base URL指定で利用)。一部β版機能あり。
DeepInfra API (Deep Infra) Meta Llama-3系、Mistral-7B、Mixtral-8x7B、MythoMax-13B、OpenChat-3.5など 従量課金制(例:Llama-3-8B-Instruct入力$0.03/1M、出力$0.06/1M)。無料枠は特になし。 クラウド OpenAI互換エンドポイント(https://api.deepinfra.com/v1/openai)。チャット/補完/埋め込みAPI対応。
Vultr Serverless Inference (Vultr) Mixtral-8x7B、Mistral-7B、Meta Llama-2-70B など 月額 $10 で500万トークン含む(追加は$0.0002/トークン)。使用トークン量に応じて課金。 クラウド OpenAI互換エンドポイント(https://api.vultrinference.com/v1)。トークン制課金制。
Lambda Inference API (Lambda Labs) Llama 4/Maverick 系列、Llama 3.1/3.3、Hermes-3、LFM-40B、Qwen-2.5 など 従量課金制(例:Llama-3.1-8B $0.03/1M、70B $0.20/1M、405B $0.90/1Mなど)。全トークン課金。 クラウド OpenAI互換エンドポイント(https://api.lambda.ai/v1)。「Core/Sandbox」モデルあり。
LocalAI (Ettore Di Giacinto) LLaMA系、Vicuna、GPT4All、Stable Diffusion など多種(vLLMやllama.cpp対応) 無料(オープンソース・MITライセンス) セルフホスト(ローカル) OpenAI互換ドロップインサーバー。GPU不要でローカル動作。プライバシー重視。
LoRAX (LoRA Exchange) HuggingFace上のLoRA適用モデル(例:LLaMA, Mistral 等) 無料(オープンソース) セルフホスト/クラウド OpenAI互換サーバー(任意のbase_url/v1で起動、APIキー不要)。動的アダプタ読み込み対応。
LlamaEdge (Trendshift) LLaMA系チャットモデル、Whisper(音声→テキスト)、GPT-SOVITS(音声合成)、SD/FLUX(画像)など 無料(ソフトウェア) セルフホスト(ローカル) OpenAI互換サーバー(例:http://localhost:8080/v1)。多種類のモデルをプラグ&プレイ可能。
  • モデル対応例: たとえばGoogle Gemini APIはGoogle独自のGeminiモデル(Gemini 1.5/2.0系)を提供し、DeepInfraはMeta・Mistral系など多数のLLMを揃えています。Lambda InferenceやVultrはMixtral/Mistral/Llamaなど主要モデルをサポートし、LocalAIやLoRAX、LlamaEdgeはユーザーローカルで任意のオープンモデルを実行できます。
  • 料金: 各社とも従量課金制で、基本的にトークン使用量に比例した課金です。無料枠の有無はサービスによって異なり、Google Geminiは初期無料枠があります、LambdaやDeepInfraは専用料金表に基づく課金(例:LambdaはLlama-3.1-405Bが$0.90/1Mトークン)、Vultrは月額定額制+超過課金制です。LocalAI/LoRAX/LlamaEdgeは無償のソフトウェア提供です。
  • 商用利用: すべて商用利用可能です(各サービスの利用規約による)。
  • ホスティング: Google, DeepInfra, Vultr, Lambdaはクラウドサービスです。一方LocalAI/LoRAX/LlamaEdgeはセルフホスト型で、ユーザーが自身のサーバーやPC上で稼働させます。
  • 注意点: OpenAI互換といっても、細かいパラメータや機能(例:Gemini特有の思考制御レベルなど)が異なる場合があります。また、各サービスで対応するモデル名やエンドポイント形式が異なります。使用時は公式ドキュメントで最新情報を確認してください。

参考資料: 公式ドキュメントや技術記事などより抜粋・要約。


DeepSeekを使ってみた所感

ローマ字かな漢字変換エンジンとしてそこそこ使える

さっそく、DeepSeekのサブスクリプションを申し込んで$2だけクレジットを購入しました。
APIエンドポイントのホスト名を api.openai.com から api.deepseek.com に変更し、APIキーを設定するだけで、呼び出しできました。
モデル名は、deepseek-chat を選択しました。この記事執筆時は、DeepSeek-V3 が使われると記載されていました。
Sumibiによるローマ字仮名漢字変換もそこそこ動きます。

非互換の部分

Completion APIでは n という引数がありますが、n=1 しかサポートしていないというエラーメッセージを出力して、変換に失敗しました。
Sumibiを改造し、deepseek.comへの接続時は n=1 に固定する対応を行いました。

レスポンスが遅い

モデル名 gpt-4.1-mini と DeepSeek-V3 を比較すると、体感で10倍くらいレスポンスが悪い感じがします。
OpenAIの最新モデルがgpt-3.5であった当時も、これくらいのレスポンスだったと思います。
今後DeepSeekも推論の最適化などが進み、レスポンスも良くなることを期待します。

言い回しが変わる

時々、言い回しを勝手に変えてしまうことがあります。これは日本語が苦手なことを示しているのでしょうか。

deepseek-reasonerを試してみる

モデル名を変えて変換精度が上がるか試してみました。さらにレスポンスが悪くなりましたが、誤変換やエラーは少なくなりましたが、文章を確認には許容できないレスポンスです。
今のところ、Sumibi用としては OpenAIのgpt-4.1-mini 最高のAIサービスです。

最後に

今後も別のサービスを試してみたり、ローカルLLMを試してみたいところです。Azure対応してほしいなどのご要望があれば対応します。たぶんAzure専用の認証処理をサポートしないといけないはずです。

https://zenn.dev/kiyoka/articles/japanese-input-method-sumibi-1
https://zenn.dev/kiyoka/articles/japanese-input-method-sumibi-2
https://zenn.dev/kiyoka/articles/japanese-input-method-sumibi-3
https://zenn.dev/kiyoka/articles/japanese-input-method-sumibi-4
https://zenn.dev/kiyoka/articles/japanese-input-method-sumibi-5
https://zenn.dev/kiyoka/articles/japanese-input-method-sumibi-6

Discussion