R-CNN の系譜を辿る
はじめに
YOLO などの物体検知系の論文を読むにあたって様々 R-CNN に関連する単語が出てきたので、
ひとまず R-CNN 系の論文を抑えておこうと思いまとめました。
歴史の系譜
物体検知では画像中の物体の位置を推定し、その物体が何であるかを識別するタスクを解きます。代表的な論文は以下の流れで発展してきました。畳み込みニューラルネットワーク(CNN)を基盤として、物体の位置(Region)を推定するので R-CNN という名前になっています。ここでは Faster R-CNN までの系譜をまとめます。
- R-CNN(2013)
- Fast R-CNN(2015)
- Faster R-CNN(2015)
- Mask R-CNN(2015)
概要
R-CNN系の処理フローの概要を示した分かりやすい図が [2] で紹介されていたので引用します。物体検知では物体を囲むバウンディングボックスを予測し、かつバウンディングボックス内の物体のクラス分類を解きます。そのため各モデルの出力は Box offset regressor(なぜ offset なのかは後述したい)と classifier の二種類存在しています。
各モデルでは画像の中のどのあたりに検知対象があるかを大まかに抽出するところから始めるのですが、この実装方法で、Fast R-CNN 以前以後に分けられます。R-CNN、Fast R-CNN ではパターン認識の技術を用いて(非ディープ)で物体の位置を大まかに判定したあとに推定を行いますが、Faster R-CNN 以後では物体の位置推定も学習に組み込んでいます (Region Proposal Network; RPN)。
π
引用元[2]より。
R-CNN
概要
R-CNN の画像分類部分は下図のような処理フローを採っています。R-CNNではまず、画像から「この辺りに物体があります」という領域を抽出するための Region Proposal と呼ばれる処理を行います[1]。これは元論文では記載がないのですが、以降の論文で出てくる Region Of Interest(RoI)の抽出に相当しています。抽出した領域を CNN の入力情報とし、クラス分類を SVM に解かせます。
元論文より。処理の概要
抽出した領域(RoI)は CNN への入力時に 227x227 の固定サイズに変形しています。おそらくこの時点ではまだ(古典的な)画像処理の技術が主流であったこともあり、「warped region」という単語を使っているのだと思います(現在なら resized image とかでしょうか)。この変換の仕方をどうすればよいかについては Appendix A で議論されています。
RoIの変換方法の調査について(Figure7)。正方形の入力サイズを想定しているので、縦長の画像はアスペクト比が崩れた画像になってしまう。
Bounding-box regression
R-CNN やそれ以降のモデルでも問題となるのが、いかにして bounding box を予測するかという部分だと思われます。ここでは少し bounding box の予測方法に焦点を当てたいと思います。
物体検知では物体を囲む矩形として bounding box(bbox)を予測する必要があり、R-CNN では bbox に関する回帰タスクを解いています(これ以降のモデルでも同様の回帰タスクを解くことになります)[2]。
物体検知では物体の位置について結果が不変であるようにする必要があります。bbox の座標を直接回帰分析させてしまうと、入力画像の大きさや画像中に物体の位置などの情報を陽に含んだ学習となってしまいます。そこで scale invariant な予測が可能にするために、「offset」を予測させるという手法を採ります。まず scale invariant とは
- 1枚の画像中に大小様々な人がいるときに「人」に対してのそれぞれの bbox を計算できるか
- 学習データ/本番データの解像度が異なる際に性能を保てるか
などの問題に対する不変性です。bounding box の不変性についての簡単な議論は [3] や bbox の座標と不変性の関係性については[1]が詳しいのですが、自分なりに少しまとめてみようと思います。
R-CNN における bbox regression の概要
回帰分析に使用する学習データは
今学習したいのは
R-CNNの bounding-box regressor の概要
学習手順は
- RoI を計算し、CNNへの入力情報を抽出する
- CNN を計算し出力値を得る
- RoI と Ground truth の差分を別途計算する
- CNN の出力値で、上記の差分を表現できるように学習する
です。(少しややこしいことを敢えて言ってしまうようですが) CNN学習時には RoI と Ground Truth は固定値です。RoI は Selective Search の出力結果なので正確には固定ではないですが、CNNを学習する時点では固定値として考えるほうが分かりやすいと思います。また Ground Truth は使用するデータセットで事前にアノテーションされているものです。RoI と Ground Truth にズレがあるのは、そもそもの Selective Search の性能の限界です。それを込みで CNN には「こういう RoI が入力されると ground truth はどこに位置しているでしょう」というタスクを学習してもらいます。
ここで
であり、変換式(変換係数)は
となります[4]。この変換式については「YOLO anchor box coordinate」とかで適当に調べると分かりやすい図が出てくるので割愛しますが、一つ引用しておきます[4][5]。
yolo における anchor box の予測方法
ここで CNN の出力に話を戻しますが、RoI で抽出した画像から何らかの特徴量ベクトルを作成します。「region Proposal の画像を畳み込んだ」という意味を込めて
と表現することができます。CNNの出力としての変換式
を解きます。CNNの出力
Fast R-CNN
概要
R-CNN では元画像を RoI で抽出し、その抽出した画像ごとに CNN の計算を行っていました。その計算コストを削減するために元画像ではなく、一度 CNN に通した特徴量マップから抽出することとしたものが、Fast R-CNN です。ただし RoI を計算する部分に関してはまだ別途画像処理の手法を使用しています。
元論文より。処理の概要
Fast R-CNN では RoI pooling の実施後、RoI ごとに二種類の出力層で最終的な出力を計算します。
まず RoI 中の物体がのどのクラスに属するかのクラス分類を解きます。出力値に softmax を掛けることで確率的に解釈し、
と表されます。
Faster R-CNN
Fast R-CNN までで使用されていた RoI 抽出部分も学習可能な Region Proposal Networks(RPNs)としてモデルの中に取り込んだモデルです。Fast R-CNN では RoI を計算する部分に計算コストが掛かっていた経緯がありその部分を刷新することで、精度と実行時間を改善しました。
元論文より。処理の概要
学習手順は Section3.2 にあるように
- ImageNet の事前学習済みモデル(ZF, VGG16)を使用して regino proposal task を解く
- ImageNet の事前学習済みモデル(ZF, VGG16)を使用して、手順(1)で出力した region proposal をもとに学習する
- 学習したモデルでRPNを初期化して、fine-tuingを実施
- Fast R-CNN 部分を fine-tuing するもとに学習する
の4段階の手順で実施されます。このモデルでは anchor box が導入されました[6]。
Region Proposal Networks(RPN)
Fast R-CNN までで計算していた RoI を RPN という形でデータから学習するのですが、その際に「Anchor」という概念が登場します(Faster R-CNN にて初出の概念ではないです)。 Anchor box を単純に default box [5] と読み替えたほうが言葉にとらわれず理解できるかもしれません。
RPN では Fast R-CNN までではやってこなかった、直接 bbox の座標を予測するということを行います。ただし損失関数を計算するときには「アンカーボックスをどう変形するか」というタスクに読み替えて学習を行います。
Anchors
一度 Faster R-CNN の文脈を離れ、一般的なアンカーボックスを導入します[6]。アンカーボックスは画像中の規定の場所(あるピクセル間隔で配置する)に規定のサイズを持った矩形であり、下図のように配置されます。
MathWorksの技術ブログより。
画像全体を処理するのではなく、このアンカーボックスに限って分類タスクを解くことで計算コストを抑え、かつ精度よく物体検知を行うことができます。例えば細長い物体を検知したいのであれば正方形ではなく長方形に近いアンカーボックスを配置し、それらに対してタスクを解くとより効率のよい物体検知が可能となります。
元画像と特徴量マップとの関係性についてですが、これは単純にピクセルサイズで対応関係をつけているようです。「畳み込んだ時に周辺の情報も入ってくるので元画像のこのピクセルは、特徴量マップのこことここのピクセルに情報が含まれていて〜」と難しいことは考えず、下図のように単純に関係づけています。
元画像と特徴量マップの対応付けの概要
元画像の 1 pixel にはいくつかのアンカーボックスが定義されていて、特徴量マップを扱うときもそのアンカーボックスを念頭に置いて処理を進めてきます。
入出力の概要
RPN では VGG16 等の fully conv で作成した特徴量マップを
- なぜ
個の bounding box の予測なのか?k - RPN ではアンカーボックスを補正して bounding box を予測するというタスクを解きます。特徴量マップの 1 pixel は元画像のとある 1 pixel に対応しており、
個のアンカーボックスが紐付いています。そのため特徴量マップ 1 pixel につきk 種類の出力を計算します。k
- RPN ではアンカーボックスを補正して bounding box を予測するというタスクを解きます。特徴量マップの 1 pixel は元画像のとある 1 pixel に対応しており、
- 予測する座標はどの平面上の座標か?
- (この部分については正確には論文から読み取れませんでしたがその上で考えてみると)元画像上での座標を計算し、その予測した領域(RoI)を特徴量マップ上に射影することで後段の RoI pooling に使用できる情報としていると思います。
繰り返しになりますが、RPN では基準となるアンカーボックスを変形して region proposal を行います。基準も何もなく予測するタスクと比較して、補助情報があることでより正確に学習が進んでいるのだと思われます。処理概要を下図に示します。
RPNの入力と出力の概要
RPNでは特徴量マップを入力に取り、物体が存在すると考えられる領域の矩形と物体らしさ(objectness score)を出力します。特徴量マップは VGG16 であれば
元論文より
損失関数
ここまでで RPN の入出力を議論してきました。最後に学習方法について説明します。まず各アンカー(アンカーボックスの中心=特徴量マップの各ピクセル)には二値クラスラベルを割り振ります。正例の割り振り方としては、(i) 画像内で ground truth bbox との IoU が最も高いアンカーボックス、(ii) ground truth bbox との IoU が 0.7 を超えているアンカーボックス、これら二種類の割り振りを行います。
また、二種類の変換式を考えます。RPN のタスクが「アンカーボックスを変形して ground truth bbox を予測する」ということを思い出すと、予測した bbox と ground truth bbox との差分が最小となるように学習したくなりますが、ここでは次の学習を行います。
と
です。
損失関数全体は
です。
Fast R-CNN
ここまでで RPN についての概要を議論してきましたが、Faster R-CNN ではあくまでも RoI を計算するために RPN を用意しており、実際に物体検知を行うのは後段の Fast R-CNN の部分です。Fast R-CNN の部分は従来の selective search から RPN に置き換わっただけで学習方法は同様のため割愛します。
参考文献
- [1] https://www.telesens.co/2018/03/11/object-detection-and-classification-using-r-cnns/
- [2] https://lilianweng.github.io/posts/2017-12-31-object-recognition-part-3/
- [3] https://stackoverflow.com/questions/55553747/what-is-scale-invariance-and-log-space-translations-of-a-bounding-box
- [4] https://christopher5106.github.io/object/detectors/2017/08/10/bounding-box-object-detectors-understanding-yolo.html
- [5] https://openaccess.thecvf.com/content_WACV_2020/papers/Zhong_Anchor_Box_Optimization_for_Object_Detection_WACV_2020_paper.pdf
- [6] https://jp.mathworks.com/help/vision/ug/anchor-boxes-for-object-detection.html
-
論文時点では様々な手法があったそうですが、selective search と呼ばれる手法を用いています ↩︎
-
どうやってbboxを予測しているのかについてはなぜかAppendixに回されており(もしかすると従来手法と同じだからでしょうか)、そのためか R-CNN の bbox regression 部分を十分に紹介している技術ブログは少ない印象でした。 ↩︎
-
元論文の
は Proposal の頭文字から来ていると思いますが、どうも Predict がちらついて読みにくかったです。このP は CNN の Predict ではなく、Selective search の Proposal です。 ↩︎P -
高さと幅の変換になぜ exponential を使っているのか自分では調査しきれなかったのですが、変換後に
がゼロにならないようにしておきたい、くらいの意味でしょうか。 ↩︎g_w, g_h -
anchor box という概念になるのでまた別ですが、考え方は同じです。 ↩︎
-
YOLO系の論文を読んでいたときに anchor が登場し調べると R-CNN 系に辿り着いたので、本当は焦点を当てて理解したかったのは Faster R-CNN です。 ↩︎
-
max poolingまで含めると
になります ↩︎7\times 7\times 512
Discussion