🍋

説明可能AI: LIME

2023/03/01に公開

LIMEについて理解する

説明可能AI

AIが出した結果に対して、解釈可能な理由や説明をつけるようなもの
ブラックボックスなものを解釈可能にする技術

https://ledge.ai/explainable-ai/

自分もAIに関する研究をしているが、予想外の結果や
なぜそのような結果になるかわからないことも多く、活用が必要だと感じる
よりAIが生活に浸透し、AIと人間が共生していく中で、必須となる技術

これより上の階層の要素として「Responsible AI」などがある

https://www.sony.com/ja/SonyInfo/sony_ai/responsible_ai.html

LIMEとは

説明可能AIの手法の一つ
Local Interpretable Model-agnostic Explainationsの略
日本語では「局所的に解釈可能な不可知論的なモデルの説明」
「不可知論的」とは「人知では理解できない」というようなこと

https://kotobank.jp/word/不可知論-123769

LIMEの具体的な内容

https://dl.acm.org/doi/abs/10.1145/2939672.2939778

KDD2016で採択された論文に基づいて解説する

具体的に何をしているのか

  1. 複雑なAIモデルのある1つの出力結果に注目
  2. その結果に対しての簡単な分類器を作成
  3. 作成した簡単なモデルを用いて出力に効いた特徴を特定

上記の流れでAIモデルを解釈可能にする
ざっくり言うと、「非線形モデルなどの複雑なものでは解釈不可能だから
ある結果のみに成り立つ解釈可能な線形モデルを作成しよう」という話

その理屈を表したのが下の図

赤の部分がpositive、青の部分がnegativeを表す部分
全体でみると赤と青の範囲は複雑な形をしている
そこで、ある一つの出力結果(図では赤い大きな+)に関しての分類器(点線)を作成する

線形モデルを生成することにより、係数の大きさから特徴ごとの重要度が分かる
これが説明可能性となる

分類器の生成方法

分類器に関しては、ある出力結果からサンプリングを行うことにより近傍のデータを取得
例えば、画像であればランダムにマスクしたり、テーブルデータであれば
乱数を用いて近傍のデータを取得する

LIMEの良いところ

モデルに依存しない
他の説明可能AIの手法だとモデルにCNNが必要なものがある
そのため、テーブル、画像やテキストなど様々なものに対して利用することができる
(説明可能AIでテーブルデータに対するものが少ない?画像が多い認識)

まとめ

LIMEに関して簡単にまとめた

今後の予定

  • github[1]などにコードが上がっているのでそれを参考に理解を深めたい
  • ResponsibleAI に関しても調べる
  • テーブルデータに関する説明可能AI手法の調査
    • 大学での研究がテーブルデータを扱うため
脚注
  1. https://github.com/marcotcr/lime ↩︎

Discussion