📢

論文要約: Kaggle コンペ "Freesound Audio Tagging 2019" のベースラインモデル

2022/03/03に公開約1,000字

論文

Audio tagging with noisy labels and minimal supervision

概要

Kaggle コンペ "Freesound Audio Tagging 2019"[1] にて、ホストが用意したベースラインモデル[2]について説明した論文。

コンペの特徴

  1. AudioSetと同様の音声マルチタギングのタスク
  2. ラベルが不正確だがサンプル数が多いデータセット(noisy train)とラベルが正確だがサンプル数が少ないデータセット(curated train)の2つが与えられている。それぞれデータソースも異なる。また、評価用ラベルはcrated trainと同じデータソースから作成。
  3. コンペティションのメトリクスにlωlrap("lol wrap"と発音)という予測のランクに基づいた指標が採用されている
  4. カーネルコンペだが、ノートブックの制限時間が1時間と現在よりもかなり短い

ベースラインモデルの特徴

  1. ノートブックの制限時間に収まるように、MobileNet v1をベースにしたパラメータ数の小さい予測モデルを採用
  2. ラベルノイズに対応するために、dropoutとlabel smoothing[3]を採用
  3. 2種類のデータソースのドメインシフトに対応するため、最初noisy trainで表現を学習した後で、curated trainでファインチューン
  4. Augmentationは利用せず
  5. 外部データを使った事前学習は利用せず

モデルのパフォーマンス

private LB=0.546。参考として、1st placeのモデル[4]がprivate LB=0.75980。

脚注
  1. https://www.kaggle.com/c/freesound-audio-tagging-2019/overview ↩︎

  2. https://github.com/DCASE-REPO/dcase2019_task2_baseline ↩︎

  3. Rethinking the Inception Architecture for Computer Vision ↩︎

  4. https://github.com/lRomul/argus-freesound ↩︎

GitHubで編集を提案

Discussion

ログインするとコメントできます