【Codex CLI一択】Gemini 2.5 Pro→MCP→MySQL接続でデータ分析を自動化しようとしたら微妙すぎた件
データ分析はChatGPT5系(Codex CLI)最強!Gemini 2.5 Proはやめたほうが良さそうです…。
毎日取得しているYouTubeの再生数データを自動的にAIに分析させて、サマリーをLINEに通知させたいと思いました。ちなみにデータはMySQL(さくらVPS)を使っていて、SQLで取り出せます。
先日リリースされたChatGPTの開発者モード(自作MCP連携機能)を使い、自作MCPサーバーからMySQLを呼びさせればサクッと終わると思いましたが、色々あってGeminiを試すことになり。
結果いろんなトラブルが発生し、Codex CLIで自動化するのがベストという結論になりました…。
ChatGPTのコネクター(MCP)では自動化できない問題
まずCSVデータを直接投げて分析してもらったら精度が良かったので、MySQLを操作できるMCPを構築→コネクタで繋げて分析させると、想像以上に精度の高いレポートを作ってくれました!
ただ(記事公開時点では)自作MCPサーバはスケジュール機能に未対応。つまり「毎朝9時に自動的にレポートを送信してくれる」みたいなことは実現できず、APIを使うのは費用感が不透明。
今振り返ると、このときに「Codex CLI で自動化」という方法を思いつけば良かったなぁ…(笑)
API無料枠のあるGeminiなら…?
そこで「無料枠のあるGeminiも試してみよう!」と思いました。とはいえGeminiは種類が多く、
- 「AI Studio=シンプルで無料枠がある」と「Vertex AI=機能多いけど有料のみ」の違い
- 「AI Studio Build」はフロントしか作れないので、自前VPSがある今回のケースでは不要
- 「Cloud Run(Googleが用意してくれるバックエンド機能)」とBuildは別サービスだった
など勘違いしつつ「VPSにあるPHPからGemini API(=Google AI Studio)にプロンプトを投げ、返ってきたメッセージをLINE通知する」このスクリプトをCronで実行すれば良いと思いました。
ただ実際に使ってみるとChatGPTのような自律性はなく、プロンプトを雑に投げるだけだと適切なツール(関数)を使ってくれません。さらに致命的だったのが「MAX_TOKENS」エラーです。
原因はよく分からないのですが、一回あたりのやりとりの上限が5000トークン程度となってて、オプションなどを工夫してもダメ。GitHubコミュニティでもバグか仕様かで話題になってました。
つまり簡易的なAIエージェントを自作する必要があるんですよね。これは流石に面倒すぎるわ…。
APIがダメなら、Gemini CLIは?
ここでやっと「Gemini CLI」をCronで定期実行すれば、自動的かつ自律的にデータ分析してくれるんじゃと気づきました。ローカルのGemini CLIにMCPを追加してプロンプトを投げてみると…?
ちゃんと自律的に動いてくれるし、トークン問題も解決しました! 今回の用途ではCLI一択です!
しかし、
クエリは成功しましたが、結果がほとんど0となってしまいました。
みたいな感じでSQL発行はミスしまくるし、
指標の週次推移からは、アルゴリズムの大きな変化は読み取れませんでした。
と体感とは随分とズレた結論になりました。
結局、Codex CLIが最強だった!
随分回り道しました。ここでやっと「Geminiが微妙なら、ChatGPTのCodex CLIなら?」と気づきました。レート制限は厳しいもののサブスクの範囲で使えます(※ただ規約的にグレーかも)。
“◯◯◯が有利”が弱まり、◯◯◯◯の不利が解消。
早速試したところ、Web版ChatGPTのコネクタと同じクオリティの結果が返ってきたんです笑!
Geminiは文章や動画生成には強いですが、データ分析の自動化ならCodex CLIが最強でしたとさ。
Discussion