Open7
AIエージェント利用におけるTIPSを考える

ChatGPTに聞いていく。
① 要求は直接与えず、タスク分解!
大きな依頼は小さな工程に分けると成功率UP
例:VPC構築 → サブネット作成 → セキュリティグループ設定 → EC2デプロイ
- 根拠:LLMは大きく曖昧な指示よりも、小さく具体的な指示の方が精度が高い(研究論文でも一貫して報告)。
- 理由:タスクを細分化することで、途中で方向修正が可能になり、誤解や失敗の累積を防げる。

② 自動反復改善の放置はNG!
LLMの自動ループは脆弱性埋め込みリスク増
✔ 各ステップで人間がレビュー・承認を行う
- 根拠:エージェントが「自動でコードやコンテンツを改善し続ける」プロセスは、Hallucination(事実誤り)やセキュリティ脆弱性を無意識に埋め込む事例が複数報告されている。
- 理由:人間のレビューを挟まないと、エラーや悪意ある挙動が検出されず本番に入り込む危険がある。

③ エージェントのログは計画的に削除
機密情報が含まれる可能性大
✔ 開発や検証のキリが良い時点で消去
- 根拠:LLMの実行ログにはAPIキー、内部構造、顧客データが混入する可能性がある。
- 理由:漏えいリスクやコンプライアンス違反を防ぐため、必要最小限の期間だけ保持するのが安全。

④ 環境ごとの権限は最小限に!
不要な書き込み・削除権限は外す
✔ 危険な操作は事前承認制
- 根拠:原則最小権限(PoLP: Principle of Least Privilege)はサイバーセキュリティの基本原則。
- 理由:不要な権限があると、バグや侵害時に被害範囲が広がる。

⑤ プロンプトに機密情報を書かない
APIキーや個人情報は直接入力せず
✔ 環境変数や安全な保管庫を利用
- 根拠:プロンプトは多くの場合ログやモデル学習の対象となる可能性があり、機密情報漏えいリスクがある(特に外部クラウドLLM)。
- 理由:安全なチャンネルや変数経由で渡すべき。

⑥ 行動範囲を制限する
無制限アクセスは情報漏えいの温床
✔ アクセス先やコマンドをホワイトリスト管理
- 根拠:無制限アクセスのエージェントは情報収集・送信の経路になり得る。
- 理由:ホワイトリスト/ブラックリスト管理で、エージェントの暴走や悪用を防ぐ。

💡 ポイント
- 小さく始める
- 人間が間に入る
- 記録は残しすぎない
らしい。