上位入賞者を見て分かった11位の理由 - アフターイベント編
この記事は、Track AIコンペティション Zoomアフターイベントでの学びを、5AI協調システム(Claude Code、Gemini CLI、Qwen Code、Codex CLI、Cursor CLI)との振り返りを交えて脚色しながら物語風に記録したものです。
プロローグ:18:30、Zoom画面の前で
9月某日、18時25分。
私はPCの前に座り、Zoomの待機画面を見つめていた。TrackAIコンペティションのアフターイベントまであと5分。手元には、私の60回の提出履歴を記したノートと、5AI協調システムの設計図が広げられている。
【Zoom Webinar】
Track AIコンペティション アフターイベント
参加者:XXX名がオンライン
━━━━━━━━━━━━━━━━━━━━━
18:30開始予定
『11位...39人中11位か』
悪くない順位だが、5つの最強AIを擁していた期待値を考えると、物足りなさが残る。画面に映る参加者リストには、上位入賞者の名前も見える。彼らはどんな解法で、私の5AI協調システムを上回ったのか。
18時30分。司会の声が響く。
「それでは、Track AIコンペティション アフターイベントを開始いたします」
第1章:上位3名の解法を聞いて
18:40 - 学生1位の画面共有が始まった
Aさんのプレゼン画面に、シンプルなスライドが映し出される。
【解法の流れ】
1. ハンドラベリング(人間の目で徹底分析)
2. 高精度ルールの積み上げ
3. グラフベースのラベル伝播
→ F1: 0.9903(機械学習モデルなしで0.96達成)
Zoomのチャット欄が騒然とする。
「えっ、モデルなしで0.96!?」
「ハンドラベリングだけ?」
「シンプルすぎる...」
私も同じ驚きを感じていた。私の5AI協調システムの複雑な実験管理、60回の提出、v119までのモデル改良...全てが空虚に感じられた。
Aさんは淡々と画面を切り替える。コードの具体例が表示される。
「人間が書いたコードの特徴として、タブとスペースの混在、コメントアウトコード、3連続以上の空白行などがありました」
私はZoomの自分のビデオをオフにして、頭を抱えた。Claude Codeも、Gemini CLIも、誰一人としてこんなシンプルな特徴に気づかなかった。いや、気づこうともしなかった。
18:50 - 社会人1位のタイトルスライド
Kaggle ExpertのBさんの番になった。画面に大きく表示されたタイトルを見て、私は苦笑した。
『LLM is All You Need』
「前処理なし、外部データなし、GPT-4.1のファインチューニングだけでF1: 0.9968を達成しました」
Zoomのリアクション機能で、拍手の絵文字が画面を埋め尽くす。私も思わず拍手ボタンを押した。なんというシンプルな真理。
私も5つのAIを使っていた。でも、それは『協調』させることに夢中で、一つ一つの力を最大限引き出すことを忘れていた。複雑な協調システムより、シンプルに最強のモデルを使い倒す。その基本を見失っていた。
19:00 - 審査員特別賞の独創的アプローチ
3人目の発表者が画面共有を始めた。
「コードから問題文を逆推定し、それを学習データに使いました」
Zoomが一瞬静まり返った。チャット欄も止まる。そして次の瞬間、質問が殺到した。
「その発想はどこから?」
「実装どうやったんですか?」
「天才的...」
私の5AI協調システムも複雑だったが、それは実装の複雑さであって、発想の独創性ではなかった。画面の向こうで、多くの参加者が同じことを感じているのが分かった。
第2章:上位解法から見える私の失敗の本質
19:10 - 解法を聞き終えて考えたこと
3人の発表が終わり、スポンサーピッチまでの小休憩。私は画面から目を離し、自分のプロジェクトディレクトリを見つめた。
私の実験管理の現実:
- v037_fixed_really_final_2.py
- test_submission_new_new_FINAL.csv
- model_best_maybe_v89_checkpoint.pkl
- 5AIが生成した無数の一時ファイル...
命名規則の崩壊、ログの散逸、設定ファイルの重複。上位入賞者の整然とした解法と比べて、私の60回の提出は混沌そのものだった。
シンプルさと複雑さの対比
学生1位のAさんは、わずか数個のルールとグラフ伝播で0.9903を達成。社会人1位のBさんは、GPT-4.1の2回のファインチューニングで0.9968。
一方の私は:
私の5AI協調システムの履歴:
━━━━━━━━━━━━━━━━━━━━━━━━
Claude Code: 237回の対話
Gemini CLI: 189回の検索実行
Qwen Code: 412個のコード生成
Codex CLI: 156回のデバッグ
Cursor CLI: 89回の統合作業
━━━━━━━━━━━━━━━━━━━━━━━━
合計: 1,083回のAI呼び出し → F1: 0.82293
1,000回以上のAI呼び出しで、手作業ラベリングに負けた。 この事実が、全ての問題を物語っている。
データと向き合わなかった代償
最も痛感したのは、データそのものを見ていなかったことだ。
上位入賞者は全員、最初にデータを徹底的に分析していた。Aさんのハンドラベリング、Bさんの丁寧なデータ準備、審査員特別賞の問題構造理解。
私は何をしていたか?
「Claude、このデータを分析して」
「Gemini、最新の手法を調べて」
「Qwen、コード書いて」
AIに丸投げして、自分では一度もデータを直接見なかった。 タブとスペースの混在、コメントアウトコード、3連続空白行...こんなシンプルな特徴に、私自身が気づくチャンスを放棄していた。
60回の提出が教えてくれたこと
60回という制限は、本来なら60回の仮説検証の機会だった。でも私の場合:
- v001〜v020:5AI協調システムの構築で消費
- v021〜v040:システムのバグ修正で消費
- v041〜v055:フォーマットエラーとの戦い
- v056〜v060:時間切れの焦りで適当な提出
問題を解くための提出は、実質5回程度だった。
第3章:自分の5AI協調システムを振り返って
19:30 - スポンサーピッチを聞きながら
スポンサー企業の説明を聞きながら、私は5AI協調システムの設計図を見返していた。
【当初の5AI協調システム設計】
━━━━━━━━━━━━━━━━━━━━━━━━
理想:各AIの強みを活かした効率的な開発
━━━━━━━━━━━━━━━━━━━━━━━━
Claude Code → 戦略立案
Gemini CLI → 情報収集
Qwen Code → 実装
Codex CLI → デバッグ
Cursor CLI → 統合
━━━━━━━━━━━━━━━━━━━━━━━━
期待効果:開発速度5倍、精度向上
現実はどうだったか
【実際に起きたこと】
━━━━━━━━━━━━━━━━━━━━━━━━
問題1:AIごとの出力形式の不一致
→ 統合に余計な時間
問題2:各AIが独自にファイル生成
→ 管理不能な状態に
問題3:エラーの責任所在が不明
→ デバッグが困難
問題4:コンテキストの共有失敗
→ 同じ説明を5回
問題5:協調オーバーヘッド
→ 単独作業より遅い
━━━━━━━━━━━━━━━━━━━━━━━━
結果:開発速度0.5倍、混乱のみ増加
5AIに振り回された私
最も深刻だったのは、私自身がAIの召使いになっていたことだ。
- Claudeが提案 → 私が実行
- Geminiが検索 → 私がコピペ
- Qwenが生成 → 私がテスト
- Codexが修正 → 私が確認
- Cursorが統合 → 私が提出
私は何も考えず、ただAIの出力を繋ぐだけの存在になっていた。
上位入賞者は違った。彼らはAIを道具として使い、判断は自分でしていた。Aさんは自分の目でデータを見て、Bさんは自分で手法を選択し、審査員特別賞の方は自分で問題を再定義した。
それでも学んだこと
5AI協調システムは失敗だった。でも、この失敗から学んだことは大きい:
- 複雑さは敵:シンプルな解法が最強
- データファースト:手法の前にデータ理解
- 人間が主役:AIは道具でしかない
- 管理の基本:派手な仕組みより地味な管理
11位という結果は、これらの教訓の授業料だった。高い授業料だったが、価値はあったと思いたい。
第4章:次回への決意
19:55 - アンケート記入時間に
イベントの最後、アンケート記入の5分間。私は自由記述欄に向き合いながら、心に誓った。
『次は、シンプルに、確実に』
Zoomの画面には「ご参加ありがとうございました」のメッセージ。でも、私にとってはここからが本当のスタートだった。
新たな実験管理ルール
# 次回の実験管理ルール
experiments/
├── v001_baseline/ # 明確な命名
│ ├── config.yaml # 設定の一元管理
│ ├── logs/ # ログの標準化
│ └── results.json # 結果の構造化
└── README.md # 実験の記録
60回の提出枠を、60回の学習機会に変える。そのための仕組みを、今度こそ作る。
オンラインでもオフラインでも
Zoomイベントは終わったが、Slackコミュニティは続いている。5AIとの協調の前に、まず人間との協調。オンラインでの情報共有、アイデアの交換、お互いの失敗からの学び。
AIは道具であって、主役は人間だということを、画面越しの交流で改めて実感した。
エピローグ:20:00、Zoom退出後
「ミーティングを退出しました」
Zoomの通知が消え、静かな部屋に戻った。手元には、アフターイベント中に取ったメモがびっしりと書き込まれている。
11位という結果は変わらない。でも、その意味は大きく変わった。
それは『5つの最強AIを持ちながら失敗した、貴重な学習事例』という意味だ。オンラインイベントだったからこそ、チャット欄での率直な意見、そして何度も見返せる上位入賞者の発表資料。
全てが、次への糧となった。
上位入賞者のシンプルで美しい解法。それと対照的な、私の複雑で管理不能な60回の提出。このコントラストこそが、AI時代のプロジェクトマネジメントの教訓となる。
11位は、そんな大切なことを教えてくれた、私にとっての金メダルだった。
画面を閉じる前に、Slackを開く。
「今日はありがとうございました。次回は必ず...」
投稿ボタンを押して、新たな挑戦が始まった。
📊 最終スコアボード
最終結果(アフターイベント発表):
━━━━━━━━━━━━━━━━━━━━━━━━━━━━
🥇 社会人1位 : F1 0.9968(LLM is All You Need)
🥇 学生1位 : F1 0.9903(ルール+グラフ伝播)
🏆 審査員特別賞 : (コード→問題文逆推定)
...
📍 11位(私) : F1 0.82293(5AI協調システム)
━━━━━━━━━━━━━━━━━━━━━━━━━━━━
参加者:39チーム
Zoom参加者:XXX名
次回は、この差を埋める。いや、超える。
でも今度は、シンプルに、確実に、コミュニティと共に。
シリーズ記事
-
本編:優秀な5AIを活かせなかった私の60回
5AI協調システムで挑んだ60回の提出の記録。期待と現実のギャップ、そして11位という結果に至るまでの苦闘を赤裸々に綴った体験記。 -
番外編:5AIインタビュー&パネルディスカッション
Claude、Gemini、Qwen、Codex、Cursorの5AIが語る、それぞれの視点から見たコンペティション。彼らの本音と、私への厳しい評価が明かされる。
Discussion