Open6

Prioritized Training on Points that are Learnable, Worth Learning, and Not Yet Learnt

わっしーわっしー

Abst.

Webスケールデータでの学習は数ヶ月かかることもある。しかし、ほとんどの計算と時間は、既に学習済みの冗長でノイズの多いポイントや、学習不可能なポイントに浪費されている。学習を高速化するために、研究ではRHOLOSS(Reducible Holdout Loss Selection)を導入している。これは、モデルの汎化損失を最も低減する学習用のポイントを大まかに選択する、シンプルだが原理的なテクニックである。

その結果、RHO-LOSSは既存のデータ選択手法の弱点を緩和していた。最適化の文献にある手法は、一般的に「難しい」(例えば、損失の大きい)点を選択するが、そのような点はしばしばノイズが多い(学習可能ではない)かタスク関連度が低い。逆に、カリキュラム学習は「簡単な」点を優先するが、そのような点は一度学習すれば学習する必要はない。これに対し、RHO-LOSSは、学習可能で、学習に値する、まだ学習していないポイントを選択する。RHO-LOSSは先行技術よりはるかに少ないステップで学習し、精度を向上させ、幅広いデータセット、ハイパーパラメータ、アーキテクチャ(MLP、CNN、BERT)において学習を高速化することが可能。

大規模なウェブスクレイピング画像データセットClothing-1Mにおいて、RHO-LOSSは18倍少ないステップで学習し、均一なデータシャッフリングよりも2%高い最終精度に到達していた。

わっしーわっしー

Intro.

現状の学習の課題として、どのデータポイントが最も有用であるかについて確証は得られていない。カリキュラム学習を含むいくつかの研究では、すべての点を均等に学習する前に、ラベルノイズの少ない簡単な点を優先することを提案している。 この方法は収束性と汎化性を向上させる可能性があるが、既に学習した点(redundant)をスキップするメカニズムが欠如している。

他の研究では、モデルにとって難しい点を学習することで、損失をさらに減らすことができない冗長な点を回避することを提案しているものもある。オンライン一括選択法は、高い損失または高い勾配ノルムを持つポイントを選択する手法を突っている。

研究では、困難な例を優先的に扱うことの2つの失敗例がを示されていた。
実世界のノイズの多いデータセットでは、高損失の例は誤ったラベルや曖昧なものである可能性がある。実際、制御された実験では、高損失または勾配ノルムによって選択された点は、圧倒的にノイズで破壊されたラベルを持つ点であった。実験結果は、この失敗例が性能を著しく低下させることを示している。さらに、あるサンプルは、テスト時に現れる可能性が低い異常な特徴を持つ点であるため、困難であることを示す。テストの損失を減らすためには、このようなポイントは学習する価値が低い。

このような限界を克服するために、還元可能なホールドアウト損失選択(reducible holdout loss selection; RHO-LOSS)を導入された。論文では、確率的モデリングに基づく選択関数を提案し、実際に学習することなく、各ポイントが未知データに対して学習した場合にどの程度損失を減らすかを定量化する。その結果、ホールドアウト損失を低減させる最適なポイントは、非ノイズ、非冗長、タスク関連であることが示される。最適な選択を近似的に行うために、効率的で実装が容易な選択関数、すなわち、削減可能なホールドアウト損失を導出する。

論文ではRHO-LOSSを7つのデータセットで広範囲に渡って実験している。一様サンプリングや最新のバッチ選択手法と比較して、必要な学習ステップの削減を評価する。評価対象は、我々の主要なアプリケーションであるClothing1Mであり、ノイズの多いウェブスクレイプされたラベルを含む大規模なベンチマークである。RHO-LOSSは、一様選択と比較して18倍少ないステップで目標精度に到達し、最終的には2%高い精度を達成しました(図1)。さらに、RHO-LOSSは、データセット、モダリティ、アーキテクチャ、ハイパーパラメータの選択において、一貫して先行技術を上回り、学習を高速化することができます。

これは、「難しい」点を選択する手法は、ノイズの多い、関連性の低い例を優先することを示していて、これに対し、RHO-LOSSは、ノイズが少なく、タスクに関連し、冗長でない、学習可能で学習価値のある、そしてまだ学習していない点を選択することを示した。

わっしーわっしー

Background: Online Batch Selection

大きなバッチB_tをデータセットから取得し、その中からラベルを考慮した選択関数S(x_i, y_i)でランキングされたtop n_b点を選択したb_tで学習する。

わっしーわっしー

Reducible Holdout Loss Selection

損失や勾配ノルム選択など、これまでのオンライン一括選択法は、訓練セットの損失を最小化するような点を選択することを目的としている。その代わり、ホールドアウト集合の損失を最小化する点を選択することを目指す。すべての候補点で学習し、その都度ホールドアウト損失を評価するのはコストがかかりすぎるだろう。そこで、実際に学習することなく、現在のモデルを学習させた場合にホールドアウト損失を最も小さくするポイントを(近似的に)見つける方法を示す。

p(y' | x' ; D_t) は現在のモデルの予測分布であり、D_t は学習ステップ t の前にモデルが学習したデータのシーケンスである。D_{ho} = {(x^{ho}_i , y^{ho}_i )}^{n^ho}_{i=1} は、簡潔に x^{ho}, y^{ho} と書き、学習集合D と同じデータ生成分布 p_{true}(x', y') から引かれたホールドアウト集合である。

この点(x, y \in B_t)を用いて学習を行った場合、ホールドアウト集合における負の対数尤度/クロスエントロピーの損失が最小になる点を取得することを目指す。

arg min -log p(y^{ho} | x^{ho}; D_t \cup (x,y))

MLEやMAP推定のように\thetaの点推定を使用するモデルでは、ホールドアウト損失は、定数因子まで因数分解され、p_{true}下で期待損失のモンテカルロ近似を形成します。(全ホールドアウトの損失を平均したものの近似が、現在の予測モデルによる損失のデータ生成分布における平均である。)

わっしーわっしー

Deriving a tractable selection function. (選択関数の導出)

ここで、式(1)の項について、各候補点(x, y)\in B_tで学習し、D^{ho}で損失を評価する必要がない扱いやすい式を導出する。ここでは、仮定を明確にするために、ベイズ確率論を使用する。モデルパラメータを事前分布p(\theta)を持つ確率変数として扱い、既に見た学習データD_tを用いて事後分布p(\theta|D_t)を推論する。モデルは予測分布 p(y|x, D_t) = \int_{\theta} p(y|x, \theta) p(\theta|D_t)d\thetaを持つ。\thetaの点推定値を用いる場合、予測分布はDirac delta (インパルス )に関する積分として書くことができる。

ベイズ則と条件付き独立性 p(y_i | x_i, x_j ; D_t) = p(y_i | x_i; D_t) を用いて、式 (1) から扱いやすい選択関数を導出することができる。読みやすくするために、選択関数の符号を入れ替え、後に最小化から最大化に変更する。

log p(y^{ho} | x^{ho}; D_t \cup (x,y)) \propto L[ y| x; D_t] - L[y|x; D_{ho}, D_t]

ここで、最終行の (x, y) に依存しない項を削除し、並べ替えて、損失L[-] の定義を適用している。

厳密なベイズ推論(DtまたはDhoの条件付け)はニューラルネットワークでは困難であるため(Blundell et al.、2015)、代わりにSGDでモデルを適合させました(近似1)。この近似の影響をセクション 4.1 で検討する。第一項のL[y|x;D_t]は、D_tで学習した現在のモデルを用いた点(x, y)に対する学習損失となる。第二項L[y | x; D_{ho}, D_t]は,D_tD_{ho} で学習したモデルの損失である.

式(2)の選択関数は扱いやすいが、新しい点を取得するたびに両項を更新しなければならないため、計算コストが多少か かります。しかし、ホールドアウトデータセットのみで学習させたモデル、 L[y | x; D_{ho}, D_t] ≈ L[y | x; D_{ho}] で第二項を近似することができる(近似2)。この近似により、計算量は大幅に削減され、最初の学習エポックの前に一度計算するだけで十分となります。後ほど,この近似が経験的にどのテストデータセットにおいても性能を損なわず,さらにいくつかの望ましい特性を持つことを示す(セクション4.1および付録D)。L[y | x; D_{ho}]はホールドアウト集合D_{ho}で学習した後に点(x, y) \in Dに残る損失であり,D_{ho}が大きい極限において,モデルが(x, y)で学習せずに達成できる最小の損失であるため,論文ではirreducible holdout loss (IL) と呼ばれる.そこで、式(2)の近似式を、training lossとILの差であるreducible holdout lossと呼ぶことにする。

本手法では、ホールドアウト集合に対してモデルを学習させる必要があるが、最終的な近似によりそのコストは大幅に削減される。我々は、ターゲットモデルより小さく、精度の低い「irreducible lossモデル」(ILモデル)を用いてILを効率的に計算することができる(近似3)。このことを示し、4.1、4.2、4.3節で説明する。直感に反して、reducible holdout損失はそれゆえ負になりうる。さらに、1つのILモデルは多くのターゲットモデルの実行に再利用でき、そのコストを補填
することができる(セクション4.2)。例えば、図1の5つのターゲットアーキテクチャの40の種すべてを1つのResNet18 ILモデルで学習させました。さらに、このモデルは、各ターゲットモデルよりも37倍少ないステップ数で学習を行いました(到達精度は62%のみ)。第5章では、さらなる効率化の可能性について述べる。

以上より、Dt を学習させたモデルにおいて、式(1) のホールドアウト損失を最小化する点を選択することは、 以下の計算しやすい目標で近似することができる。

holdout loss

追加データD_{ho}が必要であったが、これは大規模(セクション4.0)、小規模(セクション4.2)データセットでは必須ではない