🐥

上位入賞者を見て分かった11位の理由 - アフターイベント編

に公開

この記事は、Track AIコンペティション Zoomアフターイベントでの学びを、5AI協調システム(Claude Code、Gemini CLI、Qwen Code、Codex CLI、Cursor CLI)との振り返りを交えて脚色しながら物語風に記録したものです。


プロローグ:18:30、Zoom画面の前で

9月某日、18時25分。

私はPCの前に座り、Zoomの待機画面を見つめていた。TrackAIコンペティションのアフターイベントまであと5分。手元には、私の60回の提出履歴を記したノートと、5AI協調システムの設計図が広げられている。

【Zoom Webinar】
Track AIコンペティション アフターイベント
参加者:XXX名がオンライン
━━━━━━━━━━━━━━━━━━━━━
18:30開始予定

『11位...39人中11位か』

悪くない順位だが、5つの最強AIを擁していた期待値を考えると、物足りなさが残る。画面に映る参加者リストには、上位入賞者の名前も見える。彼らはどんな解法で、私の5AI協調システムを上回ったのか。

18時30分。司会の声が響く。

「それでは、Track AIコンペティション アフターイベントを開始いたします」


第1章:上位3名の解法を聞いて

18:40 - 学生1位の画面共有が始まった

Aさんのプレゼン画面に、シンプルなスライドが映し出される。

【解法の流れ】
1. ハンドラベリング(人間の目で徹底分析)
2. 高精度ルールの積み上げ
3. グラフベースのラベル伝播
→ F1: 0.9903(機械学習モデルなしで0.96達成)

Zoomのチャット欄が騒然とする。

えっ、モデルなしで0.96!?
ハンドラベリングだけ?
シンプルすぎる...

私も同じ驚きを感じていた。私の5AI協調システムの複雑な実験管理、60回の提出、v119までのモデル改良...全てが空虚に感じられた。

Aさんは淡々と画面を切り替える。コードの具体例が表示される。

人間が書いたコードの特徴として、タブとスペースの混在、コメントアウトコード、3連続以上の空白行などがありました

私はZoomの自分のビデオをオフにして、頭を抱えた。Claude Codeも、Gemini CLIも、誰一人としてこんなシンプルな特徴に気づかなかった。いや、気づこうともしなかった。

18:50 - 社会人1位のタイトルスライド

Kaggle ExpertのBさんの番になった。画面に大きく表示されたタイトルを見て、私は苦笑した。

『LLM is All You Need』

前処理なし、外部データなし、GPT-4.1のファインチューニングだけでF1: 0.9968を達成しました

Zoomのリアクション機能で、拍手の絵文字が画面を埋め尽くす。私も思わず拍手ボタンを押した。なんというシンプルな真理。

私も5つのAIを使っていた。でも、それは『協調』させることに夢中で、一つ一つの力を最大限引き出すことを忘れていた。複雑な協調システムより、シンプルに最強のモデルを使い倒す。その基本を見失っていた。

19:00 - 審査員特別賞の独創的アプローチ

3人目の発表者が画面共有を始めた。

コードから問題文を逆推定し、それを学習データに使いました

Zoomが一瞬静まり返った。チャット欄も止まる。そして次の瞬間、質問が殺到した。

その発想はどこから?
実装どうやったんですか?
天才的...

私の5AI協調システムも複雑だったが、それは実装の複雑さであって、発想の独創性ではなかった。画面の向こうで、多くの参加者が同じことを感じているのが分かった。


第2章:上位解法から見える私の失敗の本質

19:10 - 解法を聞き終えて考えたこと

3人の発表が終わり、スポンサーピッチまでの小休憩。私は画面から目を離し、自分のプロジェクトディレクトリを見つめた。

私の実験管理の現実:
- v037_fixed_really_final_2.py
- test_submission_new_new_FINAL.csv
- model_best_maybe_v89_checkpoint.pkl
- 5AIが生成した無数の一時ファイル...

命名規則の崩壊、ログの散逸、設定ファイルの重複。上位入賞者の整然とした解法と比べて、私の60回の提出は混沌そのものだった。

シンプルさと複雑さの対比

学生1位のAさんは、わずか数個のルールとグラフ伝播で0.9903を達成。社会人1位のBさんは、GPT-4.1の2回のファインチューニングで0.9968。

一方の私は:

私の5AI協調システムの履歴:
━━━━━━━━━━━━━━━━━━━━━━━━
Claude Code: 237回の対話
Gemini CLI: 189回の検索実行
Qwen Code: 412個のコード生成
Codex CLI: 156回のデバッグ
Cursor CLI: 89回の統合作業
━━━━━━━━━━━━━━━━━━━━━━━━
合計: 1,083回のAI呼び出し → F1: 0.82293

1,000回以上のAI呼び出しで、手作業ラベリングに負けた。 この事実が、全ての問題を物語っている。

データと向き合わなかった代償

最も痛感したのは、データそのものを見ていなかったことだ。

上位入賞者は全員、最初にデータを徹底的に分析していた。Aさんのハンドラベリング、Bさんの丁寧なデータ準備、審査員特別賞の問題構造理解。

私は何をしていたか?

「Claude、このデータを分析して」
「Gemini、最新の手法を調べて」
「Qwen、コード書いて」

AIに丸投げして、自分では一度もデータを直接見なかった。 タブとスペースの混在、コメントアウトコード、3連続空白行...こんなシンプルな特徴に、私自身が気づくチャンスを放棄していた。

60回の提出が教えてくれたこと

60回という制限は、本来なら60回の仮説検証の機会だった。でも私の場合:

  • v001〜v020:5AI協調システムの構築で消費
  • v021〜v040:システムのバグ修正で消費
  • v041〜v055:フォーマットエラーとの戦い
  • v056〜v060:時間切れの焦りで適当な提出

問題を解くための提出は、実質5回程度だった。


第3章:自分の5AI協調システムを振り返って

19:30 - スポンサーピッチを聞きながら

スポンサー企業の説明を聞きながら、私は5AI協調システムの設計図を見返していた。

【当初の5AI協調システム設計】
━━━━━━━━━━━━━━━━━━━━━━━━
理想:各AIの強みを活かした効率的な開発
━━━━━━━━━━━━━━━━━━━━━━━━
Claude Code → 戦略立案
Gemini CLI → 情報収集
Qwen Code → 実装
Codex CLI → デバッグ
Cursor CLI → 統合
━━━━━━━━━━━━━━━━━━━━━━━━
期待効果:開発速度5倍、精度向上

現実はどうだったか

【実際に起きたこと】
━━━━━━━━━━━━━━━━━━━━━━━━
問題1:AIごとの出力形式の不一致
→ 統合に余計な時間

問題2:各AIが独自にファイル生成
→ 管理不能な状態に

問題3:エラーの責任所在が不明
→ デバッグが困難

問題4:コンテキストの共有失敗
→ 同じ説明を5回

問題5:協調オーバーヘッド
→ 単独作業より遅い
━━━━━━━━━━━━━━━━━━━━━━━━
結果:開発速度0.5倍、混乱のみ増加

5AIに振り回された私

最も深刻だったのは、私自身がAIの召使いになっていたことだ。

  • Claudeが提案 → 私が実行
  • Geminiが検索 → 私がコピペ
  • Qwenが生成 → 私がテスト
  • Codexが修正 → 私が確認
  • Cursorが統合 → 私が提出

私は何も考えず、ただAIの出力を繋ぐだけの存在になっていた。

上位入賞者は違った。彼らはAIを道具として使い、判断は自分でしていた。Aさんは自分の目でデータを見て、Bさんは自分で手法を選択し、審査員特別賞の方は自分で問題を再定義した。

それでも学んだこと

5AI協調システムは失敗だった。でも、この失敗から学んだことは大きい:

  1. 複雑さは敵:シンプルな解法が最強
  2. データファースト:手法の前にデータ理解
  3. 人間が主役:AIは道具でしかない
  4. 管理の基本:派手な仕組みより地味な管理

11位という結果は、これらの教訓の授業料だった。高い授業料だったが、価値はあったと思いたい。


第4章:次回への決意

19:55 - アンケート記入時間に

イベントの最後、アンケート記入の5分間。私は自由記述欄に向き合いながら、心に誓った。

『次は、シンプルに、確実に』

Zoomの画面には「ご参加ありがとうございました」のメッセージ。でも、私にとってはここからが本当のスタートだった。

新たな実験管理ルール

# 次回の実験管理ルール
experiments/
├── v001_baseline/           # 明確な命名
│   ├── config.yaml         # 設定の一元管理
│   ├── logs/              # ログの標準化
│   └── results.json       # 結果の構造化
└── README.md              # 実験の記録

60回の提出枠を、60回の学習機会に変える。そのための仕組みを、今度こそ作る。

オンラインでもオフラインでも

Zoomイベントは終わったが、Slackコミュニティは続いている。5AIとの協調の前に、まず人間との協調。オンラインでの情報共有、アイデアの交換、お互いの失敗からの学び。

AIは道具であって、主役は人間だということを、画面越しの交流で改めて実感した。


エピローグ:20:00、Zoom退出後

ミーティングを退出しました

Zoomの通知が消え、静かな部屋に戻った。手元には、アフターイベント中に取ったメモがびっしりと書き込まれている。

11位という結果は変わらない。でも、その意味は大きく変わった。

それは『5つの最強AIを持ちながら失敗した、貴重な学習事例』という意味だ。オンラインイベントだったからこそ、チャット欄での率直な意見、そして何度も見返せる上位入賞者の発表資料。

全てが、次への糧となった。

上位入賞者のシンプルで美しい解法。それと対照的な、私の複雑で管理不能な60回の提出。このコントラストこそが、AI時代のプロジェクトマネジメントの教訓となる。

11位は、そんな大切なことを教えてくれた、私にとっての金メダルだった。

画面を閉じる前に、Slackを開く。

今日はありがとうございました。次回は必ず...

投稿ボタンを押して、新たな挑戦が始まった。


📊 最終スコアボード

最終結果(アフターイベント発表):
━━━━━━━━━━━━━━━━━━━━━━━━━━━━
🥇 社会人1位    : F1 0.9968(LLM is All You Need)
🥇 学生1位      : F1 0.9903(ルール+グラフ伝播)
🏆 審査員特別賞  : (コード→問題文逆推定)
...
📍 11位(私)   : F1 0.82293(5AI協調システム)
━━━━━━━━━━━━━━━━━━━━━━━━━━━━
参加者:39チーム
Zoom参加者:XXX名

次回は、この差を埋める。いや、超える。
でも今度は、シンプルに、確実に、コミュニティと共に。


シリーズ記事

Discussion