GoogleのセキュアAIフレームワークについて
今回はGoogleが提唱するセキュアAIフレームワークについて調べてみました。さまざまなAIが導入されている昨今、よりセキュアにAIシステムを運用できることが求められています。AIを案件で取り扱っている立場でもあるので、このフレームワークについて調べてみました。
セキュアAIフレームワークとは?
Googleが提唱するセキュアAIフレームワーク(以下、SAIF)は、責任を持ってAIを開発し導入するための高いセキュリティ基準が求めらている状況に対して、システムをより安全に保護するための概念的なフレームワークとして提唱されました。
SAIFの6つの基本要素について
SAIFではリスク管理やプライバシーをはじめとするセキュリティの専門家が懸念する事項に対して、安全にデプロイできるようにするための指針を提示しており、それを構成する6つの要素が挙げられています。
強固なセキュリティ基盤をAIエコシステムまで拡大する
- 20年間に亘り構築されてきたデフォルトで安全なインフラ保護を元に、AIシステムやアプリケーション、ユーザを保護
- AIの進歩をキャッチアップするために専門性を高め、AIや脅威モデルに基づくインフラ保護の導入及び強化を実施
例としてSQLインジェクションのような従来手法について触れられています。SQLインジェクションのような手法の対策としては、例えば入力値のサニタイズをはじめとした対策がありますが、同じような対策を意識することでプロンプトインジェクションをはじめとしたAI独自の脅威に対処していきます。
検出機能と対応機能を拡張し、組織の脅威対策にAIを取り込む
- 脅威インテリジェンスやその他の機能を拡張子、AI関連のサイバーインシデントを適時検知・対処
- 生成モデルの入出力を監視し、不正データや異常動作を検出
- 脅威インテリジェンスを活用して攻撃予測を実施
例えば、生成モデルの入力の不正データの検知にはガードレールを導入するといった方法で対応ができます。これらの活動をするためには、生成AIに詳しいチームだけでなくセキュリティチームなどと適切に連携しながら対応する日宇町があります。最近ではさまざまな監視ツールが生成AIの挙動を記録し、場合によってはアラートを出すといったようなサービスもあるので、それらを活用していきたいところです。
防御を自動化し、既存および新規の脅威に対応する
- 最新のイノベーションの活用を通してインシデント対応のスピードを向上する
- 攻撃者もAIを利用して活動を活発に行うため、AIだけでなく従来手法も組み合わせることで防御することが大事である
生成AIを利用するのは攻撃者も同様であり、新たな攻撃方法が次々と生み出される可能性があります。そういったことに対応するためには防御する側としても積極的にイノベーションを利用するとともに、従来の防御手法も疎かにせず利用することが大事です。
プラットフォームレベルの管理を調整し、組織全体で一貫したセキュリティを確保する
- AIリスク軽減のためのフレームワークとの連携や、異なるプラットフォーム・ツールへの保護機能の拡張
- Google CloudではCVertex AIやSecurity Ai Workbenchなどを利用
組織では様々なプラットフォームやツールを利用しているかと思いますが、一部門だけ、一サービスだけで対応していては組織全体の信頼を担保することはできません。安全な環境を組織全地に拡張し、安全なプロテクションを導入した上でサービスを展開することが求められます。
管理を適応させて緩和策を調整し、AIデプロイ用に高速なフィードバックループを作成する
- 継続的な学習による最新状況への適応能力を持たせ、変化し続ける環境に順応させる
- 例としてはユーザフィードバックを利用した強化学習など
- レッドチーミングを通して安全性のチェックを実施し、どこに問題があるかを洗い出す作業も有用である
AIは一度開発すれば官僚ではなく、継続的に更新し、常に最新の状況に対応できる能力が求められます。それはモデルの精度を維持し続けるためだけではなく、常に現れる新たな脅威に対応するために更新し続けることが重要です。また、モデルを開発した後は積極的にレッドチーミングなどを通してモデルの安全性を演習を通して評価することも考えてみてください。
周囲のビジネスプロセスにおけるAIシステムのリスクをコンテキスト化する
- AI導入に関するビジネス全体リスクの評価
- パフォーマンスの有効性を自動で監視できる仕組みの構築
AIはただ導入するだけでは意味がなく、それがビジネス上の価値につながる必要があります。また、ビジネスに連携させるだけではなく、それを導入したことにより発生しうるリスクを評価する必要があります。リスクがあると判断された場合、上記で言及しているように継続的にモデルの性能を評価し、学習し続けることが大事になります。また、モデルが所望の動作をしているかどうか、パフォーマンスが十分かどうかはモニタリングを通してチェックしていく体制を整える必要があります。
まとめ
今回はGoogleが提唱しているSAIFについてまとめてみました。基本的には公開されている資料の要約ですので、詳しくは先に提示しているリンクから確認していただければと思います。生成AIを初めビジネスにAIが多用される今だからこそ、改めてAIの利用について特にセキュリティの観点から見直してみるのはいかがでしょうか。
Discussion