🐥

AIセキュリティに関するガイド等まとめ

2024/06/30に公開

経済産業省・総務省 AI事業者ガイドライン(第1.0版)

  • AIの開発者、提供者、利用者向けに、人間中心、安全性、公平性など10項目の取り組むべき事項を示した包括的な指針
    AI事業者ガイドライン(第1.0版)(経産省 2024/4/19)

デジタル庁 テキスト生成AI利活用におけるリスクへの対策ガイドブック(α版)

総務省×MBSD AIセキュリティ情報発信ポータル

  • AIに対する攻撃手法と防御手法をAI開発の各工程に合わせて体系化したAIセキュリティ・マトリックスでAIに対する攻撃手法と防御手法を発信
  • AIセキュリティに関するトピックを掲載
    • AIセキュリティのためのリスク管理フレームワーク(Microsoft社)
    • 言語モデルの有害な振る舞いをAIでチェックする試み(DeepMind社)
    • AIのトップカンファレンス「AAAI-22」の開催(AAAI)
    • AIのための防御基盤(GARD)
    • 大規模言語モデルに関連するリスクの整理(DeepMind社)
    • 米国国立標準技術研究所(NIST)によるAIリスク管理フレームワーク(NIST)
    • 国防イノベーションユニット(DIU)による責任あるAIガイドラインの実践(DIU)
    • スタンフォード大学によるAIシステムの脆弱性管理手法の提案および米国政府機関への提言(スタンフォード大学)
    • AIセキュリティのランドスケープ「MITRE ATLAS」(MITRE ATLAS)

ICTサイバーセキュリティ政策分科会

NIST AI リスクマネジメントフレームワーク(AI RMF)

ISO/IEC 42001 情報技術 - 人工知能(AI)-マネジメントシステム

広島AIプロセス

  • 2023年のG7広島サミットで採択
  • G7が主導する生成AIの国際的なガバナンスとルール作りを推進するための枠組み
    広島AIプロセス

AIの安全な開発及び利用に関する大統領令

OECD AIにおけるアカウンタビリティの高度化

  • OECDが2023年2月に発表したレポート
  • AIシステムのライフサイクル全体にわたるリスク管理と説明責任の枠組み
    Advancing accountability in AI(2023/2/23)

英国 NCSC セキュアAIシステム開発ガイドライン

  • 英国NCSCが主導し23の国際機関が承認した文書
  • AIシステムの設計、開発、展開、運用の全ライフサイクルにわたるセキュリティガイドラインを提供し、AIの安全で責任ある開発を促進することを目的としている
    Guidelines for secure AI system development(NCSC 2023/11/27)

米国 AI権利章典

  • 米国ホワイトハウス科学技術政策局が2022年10月に発表した文書
  • AIシステムの設計、使用、展開において市民の権利を保護するための5つの原則と関連する実践を提示
    Blueprint for an AI Bill of Rights(THE WHITE HOUSE 2022/10)

EU 信頼性を備えたAIのための倫理ガイドライン

  • 欧州委員会のAI高等専門家グループが2019年に発表した文書
  • AIシステムが人間中心、安全性、プライバシー保護、透明性など7つの要件を満たすことで信頼できるAIを実現するための倫理的指針
    ETHICS GUIDELINES FOR TRUSTWORTHY AI(EU 2019/4)

UNESCO AI倫理勧告

  • UNESCOが2021年11月に採択
  • AIの開発と利用における人権保護、透明性、公平性、プライバシー、環境保護などの原則を定め、各国のAI政策立案のための包括的な倫理的枠組み
    Recommendation on the Ethics of Artificial Intelligence(UNESCO 2021/11)

Discussion