説明可能AI: LIME
LIMEについて理解する
説明可能AI
AIが出した結果に対して、解釈可能な理由や説明をつけるようなもの
ブラックボックスなものを解釈可能にする技術
自分もAIに関する研究をしているが、予想外の結果や
なぜそのような結果になるかわからないことも多く、活用が必要だと感じる
よりAIが生活に浸透し、AIと人間が共生していく中で、必須となる技術
これより上の階層の要素として「Responsible AI」などがある
LIMEとは
説明可能AIの手法の一つ
Local Interpretable Model-agnostic Explainationsの略
日本語では「局所的に解釈可能な不可知論的なモデルの説明」
「不可知論的」とは「人知では理解できない」というようなこと
LIMEの具体的な内容
KDD2016で採択された論文に基づいて解説する
具体的に何をしているのか
- 複雑なAIモデルのある1つの出力結果に注目
- その結果に対しての簡単な分類器を作成
- 作成した簡単なモデルを用いて出力に効いた特徴を特定
上記の流れでAIモデルを解釈可能にする
ざっくり言うと、「非線形モデルなどの複雑なものでは解釈不可能だから
ある結果のみに成り立つ解釈可能な線形モデルを作成しよう」という話
その理屈を表したのが下の図
赤の部分がpositive、青の部分がnegativeを表す部分
全体でみると赤と青の範囲は複雑な形をしている
そこで、ある一つの出力結果(図では赤い大きな+)に関しての分類器(点線)を作成する
線形モデルを生成することにより、係数の大きさから特徴ごとの重要度が分かる
これが説明可能性となる
分類器の生成方法
分類器に関しては、ある出力結果からサンプリングを行うことにより近傍のデータを取得
例えば、画像であればランダムにマスクしたり、テーブルデータであれば
乱数を用いて近傍のデータを取得する
LIMEの良いところ
モデルに依存しない
他の説明可能AIの手法だとモデルにCNNが必要なものがある
そのため、テーブル、画像やテキストなど様々なものに対して利用することができる
(説明可能AIでテーブルデータに対するものが少ない?画像が多い認識)
まとめ
LIMEに関して簡単にまとめた
今後の予定
- github[1]などにコードが上がっているのでそれを参考に理解を深めたい
- ResponsibleAI に関しても調べる
- テーブルデータに関する説明可能AI手法の調査
- 大学での研究がテーブルデータを扱うため
Discussion