🛡️

生成AIを使用する上での情報漏洩対策(ChatGPT編)

に公開

ChatGPTの情報漏洩を防ぐ4つの基本対策

出典:OfficeBot「ChatGPTの情報漏洩はどう防ぐ?対策と安全に利用する方法を解説」

ChatGPTは業務効率化に役立つ一方で、入力内容がAIの学習データに利用されたり、誤って情報が流出したりするリスクがあります。
以下の4つの対策を実践することで、情報漏洩のリスクを大幅に低減できます。

1. Web版では機密情報を入力しない

Web版ChatGPTでは、入力内容(プロンプト)がAIの学習データとして使用される可能性があります。(データ利用ポリシー
そのため、顧客情報・社内資料・未公開プロジェクト名などの機密情報は絶対に入力しないようにしましょう。

代替として、ダミー情報や一般化した表現を使うのが安全です。

❌ 危険な例(機密情報を含む)

顧客「田中太郎」さんの個人情報(電話番号:090-1234-5678、住所:東京都渋谷区...)を
データベースに登録するSQL文を作成してください。

✅ 安全な例(マスクデータを使用)

顧客「田中太郎」さんの個人情報(電話番号:090-XXXX-XXXX、住所:東京都○○区...)を
データベースに登録するSQL文を作成してください。

2. 「Chat history & training」機能をオフにする

設定画面から「Chat history & training」をオフにすることで、過去のチャット内容がOpenAIの学習に利用されなくなります。

この設定を行うと履歴が保存されなくなるため、プロンプト内容は必要に応じて別途設定しておくとよいでしょう。

❌ 危険な例(履歴が学習に使用される)

設定:Chat history & training が ON の状態
→ 過去のチャット内容がOpenAIの学習データとして使用される可能性
→ 機密情報を含む過去の会話が学習に影響する

✅ 安全な例(履歴を学習に使用しない)

設定:Chat history & training を OFF に設定
→ 過去のチャット内容が学習データとして使用されない
→ 機密情報の漏洩リスクを大幅に削減

3. API版を利用する

ChatGPT APIを利用した場合、入力データはモデルの再学習に使用されません。
これにより、社内システムや自社アプリに安全に組み込むことが可能です。

API利用ではセキュリティ制御(アクセス制限・ログ管理)も柔軟に設定できます。
またAPI版を利用することで、社内の情報を活用してカスタムモデルの作成もできるため企業に合わせたカスタマイズも可能です。

❌ 危険な例(Web版での機密データ処理)

Web版ChatGPTで社内の顧客データを分析
→ 入力データが学習に使用される可能性
→ 社内情報が外部に漏洩するリスク

✅ 安全な例(API版でのデータ処理)

ChatGPT APIを使用して社内システムに組み込み
→ 入力データは学習に使用されない
→ 社内環境で安全にAI機能を利用

4. Azure OpenAI Serviceを利用する

Microsoftが提供する Azure OpenAI Service は、Azureのセキュリティ基盤上でGPTモデルを安全に利用できるサービスです。

  • プロンプトや出力内容は外部に共有されない
  • データは企業専用環境で暗号化・管理される
  • IP制限やアクセス制御などの設定が可能

企業での本格利用を検討する場合は、Azure版の採用が推奨されます。

❌ 危険な例(一般のChatGPTでの企業利用)

一般のChatGPTで企業の機密データを処理
→ データが外部に送信される可能性
→ 企業のセキュリティポリシーに違反するリスク

✅ 安全な例(Azure + 企業セキュリティ設定)

Azure OpenAI Service + IP制限 + アクセス制御 + 暗号化
→ 企業専用環境で完全にデータを保護
→ コンプライアンス要件も満たす

まとめ

ChatGPTの利便性を維持しつつ情報漏洩を防ぐには、「入力しない・設定で守る・環境を選ぶ」 の3点が基本です。

ChatGPTなど対話形式で活用できるツールが増えたことでセキュリティ意識が軽薄になっている背景もあります。
プロンプトを送信する前に、個人情報や機密情報が含まれていないかを確認する意識を身につけましょう。

GitHubで編集を提案

Discussion