SMO の working set の選び方
この記事は数理最適化 Advent Calendar 2020 の 21 日目の記事です。
何の話?
SVM の主要な解法のひとつである Sequential Minimal Optimization (SMO) を昔実装して最適化の手法としてすごく勉強になったので、簡単に紹介したいと思います。
全部を説明すると長くなるので、今回は working set selection と呼ばれる部分について説明をします。
この記事の解説は SVM の有名な実装である LIBSVM をベースにしています。
LIBSVM の実装は scikit-learn の裏でも使われているので、一度はお世話になった方が多いでしょう。
基本的には LIBSVM のドキュメントや開発者の論文 Working Set Selection Using Second Order Information for Training Support Vector Machines の Working Set Selection 1 (WSS 1)[1] を解説する形になります。
定式化
ここではサンプル
解きたい問題
SVM の主問題は正則化項と損失関数のトレード・オフを調整するハイパーパラメータ
この主問題に対してラグランジュ双対問題を取ると次のようになります:
SMO はこの双対問題を効率良く解くための手法です。
SMO の基本アイデア
SMO の基本アイデアは次のようなシンプルなものです:
- 2 つの添字
を選択i, j -
だけを変数として他を固定した 2 変数の問題を解く\alpha_i, \alpha_j - Step 1, 2 を繰り返して最適解に到達したら (or 既定の反復回数を超えたら) 終了
一部の変数以外を固定した簡単な部分問題を繰り返し解くというのは最適化でよくあるやり方で、有名なものだと 1 変数の問題を繰り返し解く coordinate descent という手法があります。
では何故 SVM ではその coordinate descent が使われていないのかというと、双対問題にある
もうちょっと細かい説明
上記のアイデアでもう少しちゃんと詰めなければいけなさそうな
- 2 つの添字はどうやって選ぶのか?
- 特にこの部分を Working Set Selection (WSS) と呼んでいます
- 最適解であることはどうやって判定するのか
あたりを見ていきましょう。
最適性の判定
順番が前後しますが、これは添字の選び方にも影響する部分なので先に説明しておきましょう。
SVM は Karush-Kuhn-Tucker (KKT) 条件が充たされていれば最適解であることが保証されるので、これを充たす解を見つけることが目標となります。
導出は省略しますが SVM の KKT 条件を書き下すと次のようになります[2]:
where
細かい導出は論文を参照してもらうとして、ここでは上記の式を真面目に追う必要はありません。
注目すべきポイントはサンプル (添字) 1 個につき条件式が 1 本あるというところです。これを踏まえて次の添字の選び方を見ていきましょう。
2 つの添字の選び方
最終的なゴールは KKT 条件が全て充たされていることなので、基本となる戦略はKKT 条件の違反に対して寄与が大きい変数を選ぶ次のようなものになります:
-
の中から KKT 条件のI_{\rm up}(\alpha) を一番大きく違反する添字 (変数) を選ぶ- y_i \nabla f(\alpha)_i \leq b -
の中から KKT 条件のI_{\rm low}(\alpha) を一番大きく違反する添字 (変数) を選ぶ- y_i \nabla f(\alpha)_i \geq b - 選んだ 2 変数以外を固定した最適化問題を解く
ちょっと細かい話
添字を
双対問題の
まとめ
自分で実装したのが昔過ぎてあとは解説できるほど覚えていないあまりに記事が長くなると困るので残りは省略しますが、SMO の概要を知るには working set selection まで理解すれば十分かなと思います
実際に自力で実装して速度を出そうとした場合は、他にも
- 2 変数の最適化問題を効率良く解く手順
- 解が更新されるのに合わせて
を効率良く更新しながら保持する方法\nabla f(\alpha) - 行列
の値を全て計算するのはQ サイズで効率が悪いので、必要になったときにだけ計算して一定数キャッシュしておく実装テクニックl^2
など色々あるので、そのうち続きを書きたいなと思っていますが、興味がある人 (いるのか?) は LIBSVM のドキュメントを読み込んでみてください。
基本的には冒頭で紹介したドキュメントを読み込めば、自分で実装してそれなりの速度を出せるくらいの情報は書かれています。
また、「SMO の基本アイデア」で coordinate descent に少し言及しましたが、実は SVM の定式化からバイアス項
-
この論文で提案されている新手法は WSS 2 の方で WSS 1 は既存手法なのですが、アイデアがわかりやすい WSS 1 の方を解説しています。LIBSVM でも v2.7 までは WSS 1 が採用されていました ↩︎
-
この表記はWorking Set Selection Using Second Order Information for Training Support Vector Machines の 2 節の表記から取ってきたものなので、一般的に使われる式から実装に都合が良いように少し等価な変形を行ったものです。SVM の KKT 条件についてもう少し一般的な表記や導出を知りたい場合は、個人的にはカーネル法入門の 4 章あたりを読むのもおすすめです。 ↩︎
Discussion