🔥

「Devin/Cursor/Cline全社導入 セキュリティリスクにどう対策した?」に参加した

に公開

このイベントに参加したので簡単なメモ

大規模組織にAIエージェントを迅速に導入するためのセキュリティの勘所 - 合同会社DMM.com 石垣雅人氏

  • 大規模組織にAIエージェントを迅速に導入するためのセキュリティの勘所
  • 導入する前にセキュリティリスクを十分に評価して導入するかどうかを決めるのではなく、導入前提で進めた
    • そもそもAI人材が少ないので十分に評価してガバナンスを効かせるのに時間がかかるため
  • 専門組織からのトップダウンではなく、自律的に動くようにした
  • 利用したいツールをセキュリティ部門が確認し、情報を集約する
  • 現在は要件定義、設計、実装などは50%ぐらいAIを利用している
  • 将来的にはAI前提の開発プロセスにしたい。
    • 要件定義から評価、DevOpsまで全てにAIを利用する前提で
    • AmazonのKiroのように

感想

  • そもそも検討するのではなく導入前提で進めるというのは強い。検討するから入るとどうしても導入が遅くなるので。
  • セキュリティ部門で利用可能なツールがまとめられているのは良い
  • 開発プロセスをAI前提のプロセスにするのはチャレンジングで面白そう。今後どうなるかに期待

エムスリーでのAIコーディングにおける意思決定 - エムスリー株式会社 河合俊典氏

  • AIツールは各チームで選んでいるらしい
  • google vertex aiを噛ませる
    • gcloud authで認証できる
    • モデルのon/off、監査ログ、利用統計などが管理できる
  • 医療データの機微性
    • 外部LLMサービスに送るのは国内ではNG
    • ローカルLLMで利用している
    • 医療データだけでなく、医療コミュニティに書かれた情報も機微なデータを含むかもしれない
  • 現在の状況
    • 29%がAIによるコード、15%の生産性向上、$17kのコスト
    • 人間によるレビューの方がボトルネックになる
  • 生成AIの設定などを含めて評価するサーバを立ててeval-driven developmentをやっている
  • AIによる生産性向上
    • ruby2系→ruby3系への対応を2日で実施
    • 3名のチームで1ヶ月で新規アプリをリリース

感想

  • google vertex aiなどのプロバイダーを噛ませることでガバナンスを効かせやすいというのはなるほどと思った。
  • 医療データの生成AIにおける扱いはあまり意識しておらず、厚労省側の生成AIのガイドライン文書は読んでいなかったので、読んでみようかと
  • eval-driven developmentのあたりは理解できていない。

AIで加速する業務変革でセキュリティをボトルネックにしないためにfreeeが導入した実践的アプローチ - フリー株式会社 江頭輝氏

  • freeeにおけるAIコーディングエージェント全社導入とセキュリティ対策
  • AIツールを利用したい人が立候補してセキュリティチームが認定し、利用を開始する
    • AI特区と呼んでいるらしい
    • その後ガイドラインを作成して、全社展開
  • コーディングAIのリスク
    • MCPによってshellで危険なコマンドが実行される
  • AIによって事故はどうしても発生するので、問題が発生しても被害が及ばないようにする
    • MCPによる危険なアクションをブロックする
    • AIが使える権限を決める(AI Policy)
      • AI特区認定チームが作成し、セキュリティチームがレビューする
  • ガイドラインやガードレールを作る
    • ツール個別にガイドラインを作成
    • リソース枯渇を検知するガードレール
      • ループを検知する
    • 危険なアクションを検知してブロックするガードレール
  • LiteLLMベースのプロキシサーバをセルフホスト
    • 利用ログを確認することができる
  • ガードレールの緩和
    • ガードレールを厳しくし過ぎると、開発者体験が悪くなったり、シャドーITの利用につながる
    • 扱うデータに情報レベルを設定してAIの権限をコントロールしているが、MCPサーバのmiddlewareを利用して権限を変化させる

感想

  • AI Policyの部分で利用者側がポリシーを作ってセキュリティチームがレビューするのは良いと思う。
  • proxyを使うのもガバナンスを効かせるという意味で良さそう。ただ負荷が気になる
  • 定期的にガイドラインやガードレールを見直すのは重要

全体的な感想

  • 3社ともAIコーディングやAIコーディングエージェントの導入自体に大きな壁はなさそうだった。AIを開発に利用することは前提であり、その中でどのようにセキュリティを確保するのかが主題
  • proxyを使ったりクラウドプロバイダーを使ったりガイドラインを作ったりガードレールを作ったりと何らかのガバナンスは効かせている
  • パネルディスカッションや質疑応答で以下の意見が参考になった
    • chatgptなどのAIを使うのかエージェントを使うかどうかでセキュリティの難しさが上がる。後者は複数のツールの組み合わせで実装されているので、個々のツールの評価とツールの組み合わせの評価の両方が必要
    • ジュニア開発者や非開発者がAIを使ってコーディングをすることが増える。そこでの品質を担保するのにはまだまだ人によるレビューが必要なのでは。

Discussion