🚀

読書記録「世界一カンタンで実践的な文系のための人工知能の教科書」<1~6章>

に公開

概要

書籍「世界一カンタンで実践的な文系のための人工知能の教科書」の読書記録である
第1章から第11章までのうち、第1章から第6章までをまとめる

第1章:「AIってスゴイ!」と思ってしまう理由

なぜ人は「AIってスゴイ!」と思ってしまうのですか?

AIが人と同程度か人を超えるレベルの知能を持っているため、従来のコンピュータと異なり、AIに神秘性を感じる人がいる。

AIは二つに大別される。

ANIの発展はすさまじく、AGIと見間違う振る舞いをするものもある。そのため、決められた作業を行っているAIに対して、人に代替する汎用AIに見えることがある。これにより、AIに神秘性を感じる。

第2章:AIの正体

何ができたらAIと呼べるのですか?

各分野の研究者によってAIの定義は異なるが、大きく4つに分けられる。
現在のAIを適切に表現しているのは、合理的な行動をするシステム。

分類 定義 アプローチ
思考性×人間性 人間のように思考する 認知モデルアプローチ
行動性×人間性 人間のように行動する チューリングテストアプローチ
思考性×合理性 合理的に思考する 思考の法則によるアプローチ
行動性×合理性 合理的な行動をする 合理的エージェントアプローチ
  • チューリングテスト
    コンピュータが知能を持っているかどうかを判断するテスト
  • エージェント
    自律動作、環境認識、長期の持続性、変化への対応等を行う行動主体とみなせるコンピュータプログラム

AIが考える合理的とはどういうことですか?

「AIの合理的」は、以下のようなことを意味する

  1. 「ある目標」が「最大限達成されるように行動」すること
  2. 行った行動のみに注目する。その思考過程は問わない
  3. 「ある目標」の達成度は、「効用」の大きさによって表される
    効用とは、「その選択肢をとった場合に、どれだけ目標を達成するために効果的か?」という度合いのこと

AIはどうやって最高の一手を選ぶのですか?

AIは、入力情報から効用を計算(効用関数)し、適切な行動を行う。
学習することによって、効用関数を意味あるものに、正確なものにしていく。

AIはどうやって失敗から学ぶのですか?

行動に対して評価得て、効用関数に反映させる。

AIの行動に対して、何を達成しないといけないのか、どれだけ良かったかをフィードバックする部分を、目的関数と呼ぶ。目的関数は、人が最初に設計する部分である。

どうしてAIには大量のデータが必要なのですか?

AIにcarを学習させる場合、1回教えただけでは「他のcar」をcarと判断できない。

AI学習には、膨大な試行が必要になる。人間がフィードバックを行うことも可能だが、効率が悪い。そこで、アノテーション付きのデータを使ってAI学習を行う。

第3章:AIはどのように進化してきたのか?

なぜ、いまAIが注目されているのですか?

機械学習やディープラーニングにより、2013年から3度目のブームが訪れた。概念レベルだと、50年以上研究が続けられている。

AI研究が急拡大しているという根拠はなんですか?

AI分野の論文数が2008年ごろから急増している。AIを実現するための要素技術については、2015年以降ニューラルネットワークが伸びている。

昔のAIってどんなものだったのですか?

データを学習するタイプのAIは機械学習AIと呼ばれるが、機械学習ではないAIも存在する。ルールベースシステム(別名:エキスパートシステム)と呼ばれ、事前にプログラムに記述しておいたルールや知識で処理が行われる。現在でも、飛行機の自動操縦等に使われている。

  • 長所
    • AIの判断理由が明確
    • ルールを追加する手順が簡単
  • 短所
    • ルールが多くなりすぎると、例外処理が複雑になる

昔のAIと今のAIのちがいは何ですか?

ルールベースシステムは、事前に全てのルールを人が定義する必要があった。
一方現代のAIは、「世の中の多くのことは、単純なルールでは記述できない」という前提が基本的な考え方である。

そのため、入力(A)と出力(B)の関係性を大量のデータを使って学び、関係性のルールを自動で生成する。これらのルールは人が理解・解釈できない形になるため、ブラックボックスと呼ばれることもある。

機械学習って何ですか?

学習の過程で、出力に対するシグナルをもとに行動を変化させるのが、機械学習モデル。シグナルとは、「正解にどの程度近かったかを数値化したもの」である。

第4章:AIはどこまで人に近づけるのか?

AIは人の気持ちを理解できますか?

現在のAIには、シンボルグラウンディング問題がある。
ヒトは、シニフィエとシニフィアンをセットで捉えることができ、このような状態をグラウンディングという。AIは事象をシニフィアンを用いて記録したものを扱うため、ヒトと同じレベルで理解することができない。

AIが書いた文章に知性を感じるのはなぜですか?

現在のAIは、「中国語の部屋」の精度が非常に上がっている状況とみなすことができる。AIが正しい返信をしても、返信内容をAIが理解しているとは限らない。

AIが賢くなるのに人の知識は役立ちますか?

人間のこれまでに得た知見を「特徴量」とし、それを利用した学習が行われた。しかし、「人間のドメイン」を利用せずにディープラーニングに全てを委ねたAIの方が、性能が高い。

第5章:AIは間違える

どんなときにAIは間違うのですか?

万能で精度100%のAIを作ることは現実的ではなく、AIが間違えることもある。
AIが間違える理由は大きく3つにまとめられる。

  • データの表現能力が不足している
    入力データに十分な情報が含まれていない場合、データ表現能力が不足しているという。


  • モデルの表現能力が不足している
    AIの学習とは、「必要な情報を残し、余計な情報を削り落とすこと」である。モデルの表現能力とは、学習の実行能力のこと。


  • 学習とテストの環境差
    学習環境と本番環境に差があるとき、下記どちらかが原因でAIは間違える
    • 経験損失
      既知のデータに対する間違いの多さ
    • 期待損失
      未知のデータに対する間違いの多さ

AIが出した答えは信用してよいのでしょうか?

AIはブラックボックスといわれるように、出力結果の理由がわからない。そのため、AIを信頼するのは難しい。

AIにとって信頼されるに足る条件は、下記として扱う。

  • Robustness(堅牢性)
  • Fairness(公平さ)
  • Accountability(説明責任)
  • Reproducibility(再現性)

第6章:AIの内部に潜む悪意とは?

AIを騙せるって本当ですか?

「経験損失と期待損失のギャップ」が原因になり、ノイズを加えるとAIを騙すことができる。

IBMの研究では、高性能なAIは堅牢性を失いつつあるのではないかという問題が提起されている。また、AIが進化したことによって、AIが人を騙すことも可能になった。

悪意を持つ人もいるため、AIを使用した犯罪リスクが高まっている。AIが犯す犯罪をAIが取り締まる時代が来ると思われるが、防御と攻撃は「いたちごっこの関係」が続くだろう。

AIが人を差別するって本当ですか?

AIが差別を行っている事例は複数存在する。重要な点は、「AIはデータを通して差別を学ぶ」ということ。差別が含まれたデータでAIが学習を行うと、その価値観を埋め込まれたモデルがつくり出される。

AIを人間に対して用いる場合には、差別を解決しないといけない。
差別を無くすのが難しい理由は、下記2つ。

  • データ入手困難性
    少数派のデータは少なく、多数派のデータを少数派に合わせて削ると、学習データが減り、モデルの精度が落ちる
  • 隠してもバレる差別
    差別になる項目を隠してAIに学習をさせても、その他の項目から差別要素を抽出し、モデルに反映させる
    例)男女差別を無くすために性別項目を隠しても、趣味や学生時代の部活動等で性差が透けて見える

  • 注意点
    差別や偏見が発生する真の原因は、AIを訓練させる人間にある。人間側の問題で生じている差別を、AI側の問題で生じた差別であるかのように、すり替えて議論をすることには注意が必要。

AIの予測や決定を信じてもらうには何が必要ですか?

AIが求められる説明責任は、「AIが下した判断の根拠や理由を、人が理解しやすい形でどれだけ提示できるか」である。この説明責任を果たすことによって、人がAIを信頼することができるようなる。しかし、現代の機械学習は説明責任が充分に果たせていない。

総務省が2017年に策定した「国際的な議論のためのAI開発ガイドライン案」によると、下記が盛り込まれている

  • 透明性の原則
    開発者はAIシステムの入出力の検証可能性及び判断結果の説明可能性に留意する
  • アカウンタビリティの原則
    開発者は利用者を含むステークホルダーに対し、アカウンタビリティを果たすように努める

AIはどのように予測や決定の根拠を説明してくれるのですか?

AIが求められる説明責任については、Explainable(説明可能)とInterpretable(解釈可能)という考え方がある。

  • Explainability(説明可能性)
    「なぜ」という疑問から生じる質問は、本質的に一意に決められるものではない。「なぜ?」を繰り返し聞きたがるタイプの子供に対して、質問に答え続けるようなAIをXAI(Explainable Artificial Intelligence)と呼ぶ。AGIと同じく実現困難と認識されている。

  • Interpretability(解釈可能性)
    XAIは実現困難であるため、AIが判断基準としてどこに注目していたのかを可視化する取り組みが進んでいる。AIの判断基準を人が確認することで、AIが間違えたときに「××部分に誤反応していたから、間違えたんだな」と人間にも解釈できるようになる。


    総務省のガイドラインで求められている説明責任は、解釈可能性が該当すると思われる。ただし、解釈可能性は「人間の脳をわかりやすく可視化したようなもの」であり、本質的な説明責任を果たしてはいない。

AIの予測や決定を信じてもらうために説明以外の方法はありますか?

人間に対して理解度チェックテストを行うように、AIにも多くのテストケースを与え、AIがどのように振舞うかを観察することで解釈することができる。

近未来トレンドは、解釈可能性を求めるのではなく、テストとチェックリストを用意することになるだろう。

参考書籍

https://www.kinokuniya.co.jp/disp/CSfGoodsPage_001.jsp?CAT=08&GOODS_STK_NO=EK-0847600

注釈

書籍では「Reproductivity(再現性)」と記述されているが、本記事では「Reproducibility(再現性)」と記述する

ヘッドウォータース

Discussion