【社内SE向け】Claude Code for VS Codeは企業で使える?IPAガイドラインとセキュリティ仕様を徹底調査
AI開発ツールの導入を検討する社内SEにとって、セキュリティは最大の懸念事項ですよね。
特に「コードが学習される」という話を聞くと、機密情報や顧客データが含まれるコードを扱う企業では、なかなか導入に踏み切れないのが実情です。コンプライアンス違反になったら、それこそ大問題ですから。
そんな中、注目されてるのがClaude Code for VS Code です。Anthropic社が提供するAIコーディングアシスタントで、VS Code上で動作するという手軽さが魅力的なんですが、企業で使うとなると、やはりセキュリティ面の検証が欠かせません。
上司や経営層への提案には、感覚的な話ではなく、ちゃんとした根拠が必要ですよね。そこで本記事では、以下の観点から徹底的に調査しました:
- IPAガイドライン(2024年7月)に準拠してるのか?
- JDLAガイドライン(2023年10月)で示された注意点はクリアできるか?
- 実際のセキュリティ仕様はどうなってるのか?
- Cursorと比べてどう違うのか?
- 企業で導入する際の判断基準 は?
社内でAI開発ツールの導入を検討してる方の参考になれば幸いです。
結論:条件付きで企業利用可能
先に結論から言いますと、Claude Code for VS Codeは条件付きで企業利用可能 です。
使える条件
理想: エンタープライズプランまたはAPIプラン
- Zero Data Retentionが標準提供
- 法人契約で管理機能あり
- トレーニングに使用されない保証
- 社内規定でAIツール使用が許可されていること
- 機密情報を含まないコードでの利用に限定すること
現実的な選択肢: Claude Pro/Maxプラン(企業が経費負担)
- 企業メールアドレスでアカウント払い出し を行うこと(必須)
- 小規模(3〜5人)・非機密プロジェクト限定で使用
- プライバシー設定を「学習に使用しない」に全員が設定
- 30日間のデータ保持を許容できること
- IT部門がアカウント一覧を管理
- 利用ガイドラインを策定・運用
- 早期にAPIプラン以上への移行を計画すること
- メリット: 低コストで試験導入でき、企業メール無効化で退職時対応も可能
- デメリット: 管理機能・監査ログなし、各自のプライバシー設定管理が必要
プランごとの違いに注意
Claude Codeには複数のプランがあって、企業利用で重要なのは以下の違いです。
| プラン | 企業利用 | Zero Data Retention | トレーニング利用 | 想定利用者 |
|---|---|---|---|---|
| 無料プラン | ❌ 不適切 | 設定次第 | デフォルトで使用される | 個人の学習用 |
| Claude Pro/Max(個人有料) | ⚠️ 条件付き可 | 設定次第 | デフォルトで使用される | 企業メールで管理すれば小規模・非機密で可 |
| エンタープライズ/API | ✅ 適切 | 標準提供 | されない | 企業の本格利用 |
重要な変更点(2025年8月28日〜)
We are also expanding our data retention period to five years if you allow us to use your data for model improvement, with this setting only applying to new or resumed chats and coding sessions. If you don't choose this option, you will continue with our existing 30-day data retention period.
出典:Anthropic公式:Updates to our Consumer Terms
つまり、Claude Pro(個人の有料プラン)でも
- プライバシー設定でオプトアウトしない限り、コードが学習に使われる
- 学習に同意すると最長5年間データが保持される
- オプトアウトしても30日間は保持される
エンタープライズプラン/APIプランなら、こういった設定を気にする必要がなく、デフォルトで学習に使われません。
These updates do not apply to services under our Commercial Terms, including: Claude for Work, which includes our Team and Enterprise plans · Our API, Amazon Bedrock, or Google Cloud's Vertex API
出典:Anthropic公式:Updates to our Consumer Terms
注意すべきポイント
- API経由での通信が発生するため、完全なオフライン利用はできない
- ハードコードされた機密情報(API KEYやパスワードなど)は絶対に含めない
-
JDLAガイドラインで示された6つの入力禁止データに注意
- 個人情報(顧客氏名、住所、メールアドレス等)
- 秘密情報(NDA締結先から得た情報)
- 自社の機密情報(ノウハウ、特許出願予定技術等)
- 登録商標・意匠(ロゴやデザイン)
- 著名人の顔写真や氏名
- 第三者の著作物(同一・類似物の生成目的の場合)
- 上司や法務との事前相談は必須
- 使用する前に利活用ガイドライン (使用目的、使用方法、使用制限など)を策定すべき(JDLAのひな型が活用できる)
この記事では、これらの判断基準になった根拠を詳しく説明していきます。
IPAガイドラインとJDLAガイドラインが求めるセキュリティ要件
企業がAIツールを導入する際の判断基準として、日本には2つの重要なガイドラインがあります。
IPAガイドライン(2024年7月)
独立行政法人情報処理推進機構(IPA)が2024年7月に公開した「テキスト生成AIの導入・運用ガイドライン」があります。
テキスト生成 AI の組織導入においては、数多くのリスクを検討する必要があります。
出典:IPAガイドライン p.22
JDLAガイドライン(2023年10月)
日本ディープラーニング協会(JDLA)が2023年5月(第1版)、2023年10月(第1.1版)に公開した「生成AIの利用ガイドライン」も重要です。
本ガイドラインは、民間企業や各種組織が生成AIを利用する場合に組織内のガイドラインとして最低限定めておいた方がよいと思われる事項を参考として示したものです。
2つのガイドラインの違い
- IPAガイドライン: 技術的リスクとセキュリティ対策に重点
- JDLAガイドライン: 実務的な利用ルール、法的リスクに重点
IPAガイドラインが示す3つのリスク分類
IPAガイドラインでは、生成AIのリスクを以下の3つに分類してます。
1. 運用時のリスク
機密情報をテキスト生成AI に入力することによって組織内の機密情報が外部に流出する可能性、更新される前の古い情報に基づいた回答を生成、もしくは事実に基づかない情報を生成する現象であるハルシネーションを引き起こすことも懸念されています。
出典:IPAガイドライン p.21
具体的には以下の通りです。
- データ漏洩: 機密情報を入力した場合の外部流出リスク
- ハルシネーション: 事実に基づかない情報を生成する現象
- 古い情報: 最新でない情報に基づく回答
2. 法的および社会的リスク
テキスト生成 AI のトレーニングデータには第三者の著作物が含まれる場合があり、意図せず著作権を侵害する可能性があります。
出典:IPAガイドライン p.22
具体的には
- 著作権侵害: トレーニングデータに含まれる第三者の著作物
- 個人情報保護法違反: データ収集・処理時の法規制抵触
- バイアス: トレーニングデータによる偏見の発生
3. 攻撃に起因するリスク
LLM を対象としたサイバー攻撃には多種多様な攻撃が存在しており、AI 特有の被害を引き起こすサイバー攻撃がいくつか存在しています。
出典:IPAガイドライン p.22
具体的には以下の通りです。
- プロンプトインジェクション: 意図的な入力による誤動作
- 情報抽出攻撃: 学習データの再構築を狙う攻撃
- ポイズニング攻撃: 学習データの汚染による性能劣化
JDLAガイドラインが示す入力時の注意事項
JDLAガイドラインは、データ入力時に特に注意すべき6つの類型を示しています。
(1) 個人情報
【ChatGPT】においては入力したデータが【OpenAI社】のモデルの学習に利用されることになっていますので、【ChatGPT】に個人情報(顧客氏名・住所等)を入力する場合、当該個人情報により特定される本人の同意を取得する必要があります。そのような同意取得は現実的ではありませんので、個人情報を入力しないでください。
Claude Codeへの適用:
- Consumer版(Free/Pro/Max): 学習に使用されるため個人情報は入力禁止
- Commercial版(Enterprise/API): 学習に使用されないが、送信は発生するため要注意
(2) 秘密情報(NDA締結先から得た情報)
外部事業者が提供する生成AIに、他社との間で秘密保持契約(NDA)などを締結して取得した秘密情報を入力する行為は、生成AI提供者という「第三者」に秘密情報を「開示」することになるため、NDAに反する可能性があります。
Claude Codeへの適用
NDA締結先から得た秘密情報は、たとえEnterprise/APIプランでも入力を避けるべきです。
(3) 自組織の機密情報
自【社】内の機密情報(ノウハウ等)を生成AIに入力する行為は何らかの法令に違反するということはありませんが、生成AIの処理内容や規約の内容によっては当該機密情報が法律上保護されなくなったり特許出願ができなくなったりしてしまうリスクがありますので、入力しないでください。
Claude Codeへの適用
- 特許出願予定の技術情報
- 企業の独自ノウハウ
- 競合優位性の源泉となる情報
これらは入力を避けるべき
(4) 著作物の取り扱い
単に生成AIに他人の著作物を入力するだけの行為は原則として著作権侵害に該当しません。もっとも、当該入力対象となった他人の著作物と同一・類似するAI生成物を生成する目的がある場合には、入力行為自体が著作権侵害になる可能性があります。
Claude Codeへの適用
学習目的での著作物入力は原則OK(著作権法30条の4)だが、同一・類似物の生成目的なら侵害の可能性
企業がチェックすべきポイント
IPAとJDLAの両ガイドラインを踏まえると、企業は以下をチェックする必要があります:
技術的チェック項目(IPA寄り)
- データの取り扱いポリシーが明確か
- セキュリティ認証(SOC 2、ISO 27001など)を取得してるか
- トレーニングデータへの利用有無が明記されてるか
- データ保存期間が適切か
運用・法務的チェック項目(JDLA寄り)
- 個人情報の取り扱いルールが明確か
- 秘密情報の入力禁止が徹底されてるか
- 機密情報の定義が明確か
- 著作権侵害リスクへの対応方針があるか
- ハルシネーション対策(情報の検証プロセス)があるか
Claude Code APIの具体的なセキュリティ仕様
ここからは、Claude Code APIが実際にどのようなセキュリティを提供してるのか見ていきます。
Zero Data Retention(ZDR)の仕組み
Claude Codeの最大の特徴はZero Data Retention(ZDR) です。
Some enterprise API customers, subject to Anthropic approval, may have arrangements under which Anthropic does not store their inputs or outputs except where needed to comply with law or combat misuse. Under these arrangements, Anthropic still retains UserSafety classifier results in order to enforce our Usage Policy.
出典:Anthropic Privacy Center - Zero Data Retention
簡単に言うと、
- APIプラン利用時 は、ユーザーのプロンプトとClaudeの応答が保存されない
- コードはローカルで動作 し、中間サーバーに保存されない
- リアルタイム処理 のみで、データは残らない
ただし注意点として、
Zero data retention may not apply to customer data processed by any third-party websites as part of a web search or shared with or stored by third parties.
出典:Anthropic Privacy Center - Zero Data Retention
つまり、コードはAnthropicのサーバーに送信される ってことですね。ZDRは「保存されない」という意味であって、「送信されない」という意味ではないんです。
ZDRの例外事項
ZDRにもいくつか例外があります。
This differs from our standard API interactions under ZDR because the Files API requires persistent storage to enable features like file reuse across conversations and the Code Execution Tool.
出典:Anthropic Privacy Center - Zero Data Retention
具体的には、
- Files APIでアップロードしたファイルは、削除するまで保持される
- Trust & Safetyの分類結果は保持される
- 法令遵守や不正利用防止のために必要な場合は保持される
SOC 2 Type 2認証
Claude CodeはSOC 2 Type 2認証を取得してます。
これは、
- セキュリティ管理が適切に実施されてるか
-
継続的な運用が確認されてるか
を第三者が監査した証明です。
Cursor empowers secure development with three core principles: Privacy First, Complete Control, Enterprise Ready SOC 2 certification, GDPR compliance, and legal safeguards meet the strictest standards.
出典:Claude Security Explained: Benefits, Challenges & Compliance
ISO 27001認証
ISO 27001は情報セキュリティマネジメントシステムの国際規格です。Anthropicもこれを取得してるってことで、以下が保証されてます。
- 情報資産の保護
- リスク管理プロセスの確立
- 継続的改善の実施
データ暗号化の詳細
通信時のデータ暗号化については、以下の仕組みになってます。
Data is encrypted in transit using TLS and at rest using 256-bit AES encryption.
出典:Claude Code Data Usage Documentation
具体的には、以下が保証されてます。
- TLS暗号化による通信時の保護
- AES-256暗号化による保存時の保護(保存される場合)
- 転送中の暗号化が必須
データ保持期間の詳細
APIプランでのデータ保持期間は以下の通りです。
For Anthropic API users, we automatically delete inputs and outputs on our backend within 30 days of receipt or generation, except when you and we have agreed otherwise (e.g. zero data retention agreement)
出典:Anthropic Privacy Center - Data Retention
具体的な保持期間は以下の通りです。
- 標準のAPI利用: 30日間
- ZDR契約あり: 即座に削除(Trust & Safety分類結果は除く)
- ポリシー違反時: 最長2年間
- Trust & Safety分類スコア: 最長7年間
エンタープライズプランと個人プランの違い
重要なポイントとして、無料プラン、個人有料プラン(Claude Pro)、エンタープライズプランでは大きな違いがあります。
| 無料プラン | Claude Pro/Max(個人有料) | エンタープライズ/API | |
|---|---|---|---|
| 月額料金 | $0 | 約$20/人 | 要相談 |
| Zero Data Retention | ❌ (設定次第) | ⚠️ (設定次第) | ✅ (標準) |
| トレーニング利用 | デフォルトで使用 | デフォルトで使用 | されない |
| データ保存期間 | 最長5年(同意時) | 最長5年(同意時) | 30日またはZDR |
| 管理機能 | なし | なし | あり |
| 企業向け保証 | なし | なし | あり |
| 契約形態 | 個人 | 個人 | 法人契約 |
| 企業が経費負担 | 不可 | ⚠️ 可能だが非推奨 | ✅ 推奨 |
| 監査ログ | なし | なし | あり |
| プライバシー設定の一元管理 | 不可 | 不可 | 可能 |
| 退職時の対応 | - | 企業メール無効化でアクセス不可 | 管理者が即座に削除可能 |
| アカウント払い出し管理 | - | 企業側で可能 | 企業側で可能 |
出典:
なぜClaude Proでは不十分なのか?
Claude Pro(約$20/月)は一見コスパが良さそうに見えますが、以下の理由で企業利用には向いてません。
-
デフォルトで学習に使用される
Starting today, we're rolling out notifications so you can review these updates and manage your settings. If you're an existing user, you have until October 8, 2025 to accept the updated Consumer Terms and make your decision.
出典:Anthropic公式:Updates to our Consumer Terms
プライバシー設定で手動でオプトアウトする必要があり、オプトアウトを忘れると、コードが最長5年間保持される可能性があります。
-
契約が個人名義なので、企業としての管理ができない
-
データ取り扱いの保証が企業向けではない
Commercial users: (Team and Enterprise plans, API, 3rd-party platforms, and Claude Gov) maintain existing policies: Anthropic does not train generative models using code or prompts sent to Claude Code under commercial terms
出典:Claude Code Data Usage Documentation
商用プラン(Enterprise)とは扱いが異なります。
-
管理者機能がないため、誰が何に使ってるか把握できない
-
コンプライアンス対応が不十分
企業で使うなら、多少コストがかかってもエンタープライズプランまたはAPIプラン一択です。こちらは「商用プランやAPIを介した利用は対象外」と明記されてるため、安心して使えます。
Claude Pro/Maxプランでの現実的な利用方法
正直なところ、「エンタープライズプランが理想」とは言っても、予算的に厳しい中小企業や個人事業主、スタートアップも多いですよね。そういう場合にClaude Pro/Maxプラン($20/月)で現実的にどこまで使えるかも知っておく必要があると思います。
⚠️ 大前提:エンタープライズプランが理想
まず最初に言っておきますが、企業利用ではエンタープライズプランが推奨です。ただ、予算が限られるスタートアップや中小企業で、以下の条件をすべて満たすなら、Pro/Maxプランでも現実的に使える可能性はあります。
重要: 個人のGmailなどではなく、企業メールアドレスでアカウント払い出しが絶対条件です。
使える条件(すべて必須)
1. プライバシー設定で学習をオプトアウトする
If you're an existing user, you have until October 8, 2025 to accept the updated Consumer Terms and make your decision. ... You can change your choice in your Privacy Settings at any time.
出典:Anthropic公式:Updates to our Consumer Terms
Settings > Privacy Settings から「学習に使用しない」を選択する必要があります。これを忘れると最長5年間データが保持されます。
2. 30日間のデータ保持を許容できる
オプトアウトしても、データは30日間保持されます:
If you do not choose to provide your data for model training, you'll continue with our existing 30-day data retention period.
出典:Anthropic公式:Updates to our Consumer Terms
30日間は完全には消えないことを理解した上で使う必要があります。
3. 機密度が低いプロジェクト限定
以下のような用途に限定すべきです:
- 個人の学習用プロジェクト
- 趣味のコード開発
- 公開予定のオープンソースプロジェクト
- 社内の非機密ツール(個人情報を含まない)
4. ハードコードされた機密情報は絶対に含めない
# ❌ 絶対NG - Pro/Maxプランでは特に危険
API_KEY = "sk-proj-abc123..."
DATABASE_PASSWORD = "password123"
CUSTOMER_DATA = {"email": "customer@example.com"}
# ✅ OK - 環境変数から取得
import os
API_KEY = os.getenv("API_KEY")
5. 契約が個人名義であることの制約を理解する
Pro/Maxプランは個人契約ですが、企業メールアドレス(@company.com)でアカウントを払い出すことで、ある程度の管理は可能です。
✅ 企業メールアドレスなら可能なこと
- アカウントの払い出し管理(誰にアカウントを付与するか)
- 退職時のアカウント無効化(メールアドレスを無効化すればアカウントもアクセス不可)
- 経費精算の一元管理
- 利用者の把握
❌ それでもできないこと
- 管理者による一元管理(各社員が個別に設定を管理)
- プライバシー設定の強制(各個人の設定任せ)
- 監査ログの取得(誰が何を入力したか追跡不可)
- 利用状況の詳細把握(どのプロジェクトで使ったか分からない)
- アクティビティの可視化(使用頻度や内容が見えない)
Pro/Maxプランで使える範囲
企業が経費でPro/Maxプランを負担する場合、以下のような運用が考えられます:
✅ 比較的安全な用途
- プロトタイプ開発(本番環境に入れない前提)
- 技術検証・学習目的
- 個人プロジェクトのサポート
- コードレビューの補助(機密情報を除く)
- 一般的なアルゴリズムの実装支援
⚠️ 注意が必要な用途
- 社内ツール開発(個人情報を含まない範囲)
- テスト用データでの開発
- リファクタリング支援(機密ロジックは除く)
企業が経費負担する場合の追加ルール
企業として経費でPro/Maxプランを負担するなら、最低限以下のルールを設けるべきです。
-
企業メールアドレスでのアカウント払い出し
- 個人メールアドレス(@gmail.comなど)は禁止
- 企業ドメインのメールアドレス(@company.com)で登録
- IT部門がアカウント一覧を管理
- 退職時は企業メールアドレスを無効化(自動的にアカウントもアクセス不可)
-
利用申請制にする
- 誰が使うのか把握
- 用途を明確化
- 上司の承認を必須にする
- アカウント払い出し前に利用ガイドラインへの同意を取得
-
プライバシー設定の確認を義務化
- 月1回、設定のスクリーンショットを提出
- 「学習に使用しない」になっているか確認
- チェックリストを作成
- 未提出者には警告・アカウント停止
-
利用ガイドラインを作成
- 使っていい範囲を明記
- 禁止事項を具体例で示す
- 違反時のペナルティを明確化
- 入社時研修で説明
-
定期的な利用状況報告
- 月次で何に使ったか報告
- インシデントがあれば即報告
- 四半期ごとにレビュー
-
退職時の自動対応
- 企業メールアドレス無効化でアカウントも自動的にアクセス不可
- 使用していたプロジェクトを洗い出し
- 機密情報が含まれていないか確認
Pro/Maxプランでは使えない範囲
❌ 絶対に避けるべき:
- 顧客の個人情報を扱うコード
- 決済処理のコード
- 認証・認可の実装
- API KEYやパスワードを含むコード
- 企業の機密アルゴリズム
- 規制対象のシステム(金融、医療など)
- 本番環境で動くコード(原則として)
定期的な確認事項
Pro/Maxプランを企業の経費で使い続ける場合、以下を必ず定期的に確認してください。
個人が行う確認
- 毎月1回: プライバシー設定が「学習に使用しない」になっているか確認
- 毎月1回: Anthropicのプライバシーポリシーに変更がないか確認
- 使用の都度: 機密情報を含むコードを入力していないか確認
企業・チームとして行う確認
- 毎月1回: 全利用者のプライバシー設定確認(スクリーンショット提出など)
- 毎月1回: 利用状況の報告会(何に使ったか共有)
- 3ヶ月に1回: 使用しているプロジェクトの機密度を再評価
- 半年に1回: エンタープライズプランへの移行を検討
- 年1回: 利用ガイドラインの見直し
現実的なアップグレードパス
予算的に厳しい場合でも、以下のような段階的な移行を計画すべきです。
Phase 1: Pro/Maxプラン(試験導入フェーズ)
- 期間: 3〜6ヶ月
- 対象: 3〜5人の開発者
- 用途: 非機密プロジェクトのみ
- 予算: 約$20/月 × 人数 = $60〜100/月
- 目的: 効果測定、課題の洗い出し
Phase 2: APIプラン(本格導入フェーズ)
- 期間: 6〜12ヶ月
- 対象: 開発チーム全体(10〜20人)
- 用途: より高い機密性が求められる開発
- 予算: 使用量次第(月$200〜500程度を想定)
- 移行タイミング:
- 売上が月100万円を超えた
- 開発者が10人を超えた
- 顧客案件を扱う必要が出てきた
Phase 3: Enterpriseプラン(全社展開フェーズ)
- 期間: 1年以上
- 対象: 全社(開発+非開発部門)
- 用途: 顧客データを含む全ての開発
- 予算: 要相談(年間数十万円〜数百万円)
- 移行タイミング:
- 従業員が50人を超えた
- 規制対象の顧客を扱うようになった
- 監査・コンプライアンス要件が厳しくなった
- VCから資金調達した
移行の判断ポイント
以下のいずれかに該当したら、即座にアップグレードを検討すべきです。
- ❗ 個人情報保護法の対応が必要になった
- ❗ セキュリティ監査を受けることになった
- ❗ エンタープライズ顧客からセキュリティ要件を求められた
- ❗ 社内でセキュリティインシデントが発生した
- ❗ 競合他社がEnterpriseプランを使っていることが判明した
最終的な判断基準
企業が経費でPro/Maxプランを負担する場合の判断基準は以下の通りです。
使ってもいいケース
- 少人数(3〜5人程度)での試験導入
- 非機密プロジェクトでの開発支援
- 利用者全員がプライバシー設定を確実に管理できる
- 30日間のデータ保持を許容できる
- 利用ガイドラインを策定・運用できる
- 管理機能がなくても運用できる体制がある
やめるべきケース
- 10人以上で使いたい(管理機能がないため運用が困難)
- 顧客の個人情報を扱う
- 規制対象の業界(金融、医療など)
- 社内規定でクラウドサービスの利用に厳しい制限がある
- データ保持期間をゼロにする必要がある
- 監査ログが必須(コンプライアンス要件)
- プライバシー設定の一元管理が必須(各個人任せにできない)
企業が経費で負担する場合の現実的な運用例
例1: スタートアップ(5人)
- 全員が企業メールアドレス(@startup.com)でPro/Maxプランに登録
- 会社が経費として月$20 × 5人 = $100を負担
- IT担当がアカウント一覧を管理
- 月1回、全員でプライバシー設定を確認
- Slackで利用報告を共有
- 非機密プロジェクトのみ使用
- 退職時は企業メールを無効化して自動的にアクセス不可
例2: 中小企業の開発部(10人)
- まず3人で試験導入(@company.com)
- 3ヶ月後に評価してAPIプランへ移行検討
- 利用ガイドラインを作成
- 週次ミーティングで使用状況を共有
- IT部門がアカウント払い出しを管理
例3: 個人事業主
- 自分の屋号メールアドレス(@mybusiness.com)で登録
- 経費として計上
- プライバシー設定を月1回確認
- クライアントのコードは使わない
正直な結論
Claude Pro/Maxプランを企業が経費で負担するのは、企業メールアドレスでアカウント払い出しをきちんと管理すれば、小規模(3〜5人)で非機密プロジェクト限定なら十分に現実的な選択肢です。
メリット
- ✅ 企業メールアドレスでアカウント管理できる
- ✅ 退職時は企業メール無効化で自動的にアクセス不可
- ✅ 低コスト($20/月×人数)で試験導入できる
- ✅ アカウント払い出しは企業側で管理可能
デメリット(理解しておくべき点)
- ❌ 管理者による一元管理機能がない(プライバシー設定は各自管理)
- ❌ 監査ログがない(コンプライアンス要件が厳しい業界には不向き)
- ❌ プライバシー設定を強制できない(各個人の自主管理に依存)
- ❌ スケールしにくい(10人を超えるならAPIプランを検討すべき)
本格的に業務で使うなら、早めにAPIプランやEnterpriseプランへの移行を検討することを強くおすすめします。Pro/Maxプランは「試験導入フェーズ(3〜6ヶ月)」や「小規模チームでの補助ツール」として割り切って使うのが賢明です。
企業メールアドレスでの管理が前提
個人のGmailなどでアカウントを作ってしまうと、退職後も個人がアカウントを保持し続けることになり、セキュリティリスクになります。必ず企業ドメインのメールアドレス(@company.com)でアカウントを払い出してください。
Cursor vs Claude Code:セキュリティ比較
ここで、多くの人が気になってるであろうCursorとの比較をしてみます。
セキュリティ比較表
| 項目 | Cursor | Claude Code |
|---|---|---|
| データ学習の有無 | Privacy Mode以外では学習に使用される可能性あり | APIプランではトレーニングに使用されない |
| Zero Data Retention | Privacy Mode (Legacy)で提供 | APIプランで標準提供 |
| SOC 2認証 | SOC 2 Type 2取得済み | SOC 2 Type 2取得済み |
| ISO 27001 | ✅ | ✅ |
| データ保存 | Privacy Mode以外では一部保存 | APIプランでは標準で保存されない |
| プライバシーモード | 3種類(Privacy Mode、Privacy Mode Legacy、Share Data) | プラン依存 |
| エンタープライズ対応 | ✅ (Business Plan) | ✅ (Enterprise/API) |
| 価格帯(概算) | 約$20/月〜 | APIクレジット消費型 |
出典: Cursor Privacy Policy、 Cursor Security、Cursor Data Use & Privacy Overview、Claude Code Data Usage Documentation
各項目の詳細説明
データ学習について
Cursor
If you choose to turn off "Privacy Mode": we may use and store codebase data, prompts, editor actions, code snippets, and other code data and actions to improve our AI features and train our models.
出典:Data Use & Privacy Overview · Cursor
Privacy Modeをオフにすると、データが学習に使われる可能性があります。
Claude Code
Commercial users: (Team and Enterprise plans, API, 3rd-party platforms, and Claude Gov) maintain existing policies: Anthropic does not train generative models using code or prompts sent to Claude Code under commercial terms
出典:Claude Code Data Usage Documentation
APIプランでは、コードがモデルのトレーニングに使われることはないと明記されてます。
Zero Data Retentionについて
Cursor
If you are on "Privacy Mode (Legacy)": zero data retention will be enabled, and none of your code will ever be stored or trained on by us or any third-party.
出典:Data Use & Privacy Overview · Cursor
Privacy Mode (Legacy)を使えば、ZDRが有効になります。
Claude Code
Some enterprise API customers, subject to Anthropic approval, may have arrangements under which Anthropic does not store their inputs or outputs except where needed to comply with law or combat misuse.
出典:Anthropic Privacy Center - Zero Data Retention
ZDRはAPIプランの標準機能として提供されてます(ただし、Anthropicの承認が必要な場合もあり)。
プライバシーモードの違い
Cursorには3つのモードがあります。
- Privacy Mode (Legacy): 完全なZDR、一部機能が無効化
- Privacy Mode: ZDR、一部コード保存機能あり
- Share Data: データを保存・学習に使用
If you enable "Privacy Mode" in Cursor's settings: zero data retention will be enabled for our model providers. Cursor may store some code data to provide extra features. None of your code will ever be trained on by us or any third-party.
出典:Data Use & Privacy Overview · Cursor
Claude Codeはプラン依存です。
- Consumer(Free/Pro/Max): デフォルトで学習に使用、設定で変更可能
- Commercial(Enterprise/API): デフォルトで学習に使用されない
Business/Enterpriseプランの違い
Cursor Business Plan
- Privacy Modeがデフォルト有効
- OpenAI/AnthropicとZDR契約
- 月額約$40/ユーザー(推定)
Claude Enterprise/API Plan
- ZDRが標準機能
- 管理機能が充実
- 料金は要相談(APIはクレジット制)
どちらがどのような状況に適してるか
Cursorが向いてるケース
- 多機能なIDEとしての機能が欲しい
- チーム開発での利用
- Privacy Modeをきちんと設定・管理できる体制がある
- 月額固定料金が好ましい
Claude Codeが向いてるケース
- VS Codeの拡張機能として使いたい
- シンプルなセキュリティ設定を求めてる
- APIベースでの利用に慣れてる
- 使用量に応じた従量課金が好ましい
実践的な判断基準と導入チェックリスト
ここからは、実際に導入するかどうかを判断するための基準を示します。
使える/使えないケースの具体例
✅ 使えるケース
1. プロトタイプ開発
- 機密情報を含まない実験的なコード
- 新しい技術の検証
- 個人学習プロジェクト
2. 社内ツール開発
- 業務効率化のための小規模ツール
- 特定部署内でのみ使用するスクリプト
- テスト環境でのコード生成
3. 学習・研修目的
- プログラミング研修での利用
- 新人教育用のサンプルコード作成
- 技術勉強会でのデモ
4. オープンソースプロジェクト
- 公開予定のコード
- GitHubなどで共有するプロジェクト
❌ 使えないケース
1. 高度な機密情報を含むコード
- 顧客の個人情報を直接扱うシステム
- 決済処理のコア機能
- セキュリティ認証の実装
2. 規制対象のシステム
- 金融システム(特定の規制下にあるもの)
- 医療システム(個人の健康情報を扱うもの)
- 軍事・防衛関連システム
3. API KEYやパスワードがハードコードされてるコード
# ❌ NG例
API_KEY = "sk-proj-abc123..." # 絶対ダメ!
4. 社内規定で明示的に禁止されてる場合
- コンプライアンス上NGな場合
- 上司や法務部門の承認が得られない場合
導入チェックリスト(STEP形式)
IPAとJDLAの両ガイドラインを踏まえた、実践的なチェックリストです。
STEP1:社内規定の確認
- AI開発ツールの使用が社内規定で許可されてるか確認した
- 情報セキュリティポリシーに抵触しないか確認した
- 法務部門に相談した
- 上司の承認を得た
- 個人情報保護法の観点で問題ないか確認した
- 既存のNDA(秘密保持契約)との整合性を確認した
STEP2:プランの選択とセキュリティ設定
エンタープライズ/APIプランの場合
- Zero Data Retentionが有効になってることを確認した
- 契約内容を法務部門とレビューした
- 料金体系を確認し、予算内に収まることを確認した
- データ保存期間が要件を満たしているか確認した
Pro/Maxプランの場合(非推奨)
- プライバシー設定を「学習に使用しない」に設定した
- 30日間のデータ保持を許容できることを確認した
- 利用者全員がプライバシー設定を管理できる体制を構築した
- 月1回のプライバシー設定確認を義務化した
STEP3:利用範囲の明確化(JDLAガイドライン準拠)
-
使用するプロジェクトを明確に定めた
-
機密情報の定義を明確にした(以下を含む):
- 個人情報(顧客氏名、住所、メールアドレス等)
- 秘密情報(NDA締結先から得た情報)
- 自社の機密情報(ノウハウ、特許出願予定技術等)
- API KEY、パスワード等の認証情報
- 顧客データベースの内容
- 未公表の新製品情報
-
入力禁止データの具体例を列挙した
-
禁止事項を文書化した
-
利用者に対してガイドラインを配布した
-
著作権侵害リスクへの対応方針を策定した
STEP4:運用ルールの策定
-
利活用ガイドラインを作成した
- 入力して良いデータ/悪いデータの判断基準
- 生成物の検証プロセス(ハルシネーション対策)
- 著作権・商標権の確認方法
- 違反時のペナルティ
-
定期的なレビュープロセスを確立した
- 月1回: 利用状況の報告
- 3ヶ月に1回: 機密度の再評価
- 半年に1回: ガイドラインの見直し
-
インシデント発生時の対応フローを決めた
- 機密情報を誤入力した場合の対応
- 著作権侵害の疑いがある生成物を使用した場合の対応
- 個人情報を誤入力した場合の対応(本人への通知等)
-
監査ログの保存方法を決めた
- 誰が、いつ、何に使ったかの記録方法
- 問題発生時のトレーサビリティ確保
STEP5:教育・周知(JDLA推奨)
-
利用者向け研修を実施した
- 生成AIの基本的な仕組み
- ハルシネーションのリスク
- 入力禁止データの具体例
- 著作権・個人情報保護法の基礎知識
-
利用開始前のテストを実施した
- ガイドラインの理解度確認
- 実際の利用シナリオでの判断力確認
-
定期的な注意喚起を実施する仕組みを構築した
- 月次メールでの注意喚起
- Slackやチャットでのリマインダー
最大の注意点:ハードコードされた機密情報は絶対に避ける
絶対に避けるべきことは、コード内に機密情報をハードコードすることです。
# ❌ 絶対NG:APIキーのハードコード
OPENAI_API_KEY = "sk-proj-abc123def456..."
DATABASE_PASSWORD = "P@ssw0rd123"
# ✅ OK:環境変数から取得
import os
OPENAI_API_KEY = os.getenv("OPENAI_API_KEY")
DATABASE_PASSWORD = os.getenv("DB_PASSWORD")
これさえ守れば、Claude Codeに送信されるコードに機密情報が含まれることはありません。
まとめ
ここまで、Claude Code for VS Codeの企業利用について、IPAガイドライン、セキュリティ仕様、Cursorとの比較という3つの観点から調べてきました。
調査で分かったこと
IPAガイドラインとJDLAガイドラインの関係
IPAが示す3つのリスク(運用・法的・攻撃)と、JDLAが示す6つの入力時注意事項は、両方とも企業でAIツールを使う際の重要な指針です。
IPAガイドラインは技術的リスクとセキュリティ対策に重点を置いてますが、JDLAガイドラインは実務的な利用ルールと法的リスクに重点を置いてます。両方を組み合わせることで、より包括的なセキュリティ対策が可能になります。
特にJDLAガイドラインは、自社の「生成AI利用ガイドライン」を作成する際のひな型として使えるんで、Claude Code導入の際も活用できますね。
Claude Codeのセキュリティの実態
APIプランを使えば、コードがトレーニングに使われることはないって明記されてます。データも保存されない(Trust & Safety分類結果は除く)。通信はTLS/SSLで暗号化されて、保存時はAES-256暗号化なんで、そこも安心できるポイントですね。
ただし、JDLAガイドラインの観点から見ると、以下の点に注意が必要です。
-
個人情報の取り扱い
- Consumer版(Free/Pro/Max): デフォルトで学習に使用されるため個人情報は絶対NG
- Commercial版(Enterprise/API): 学習には使用されないが、サーバーへの送信は発生する
- いずれにしても、顧客の氏名・住所・メールアドレス等は入力を避けるべき
-
秘密情報(NDA締結先から得た情報)
- たとえEnterprise/APIプランでも、NDA締結先から得た情報は入力を避けるべき
- 生成AI提供者に「開示」したとみなされる可能性がある
-
自社の機密情報
- 特許出願予定の技術、企業のコアノウハウなどは入力リスクあり
- 法律上保護されなくなる可能性や、特許出願ができなくなるリスク
-
ハルシネーション対策
- 生成されたコードは必ず検証が必要
- 「もっともらしい」が「正しい」とは限らない
これらのJDLAガイドラインの観点は、IPAガイドラインの「運用時のリスク」と「法的・社会的リスク」を、より実務的に具体化したものと言えますね。
Claude Pro(個人有料プラン)の注意点
2025年8月28日のプライバシーポリシー変更で、プライバシー設定でオプトアウトしない限り、デフォルトでコードが学習に使用されるようになってます。しかも学習に同意すると最長5年間データが保持されるんです。
JDLAガイドラインで示されている「個人情報」「秘密情報」「機密情報」のいずれかを含む可能性があるコードは、Pro/Maxプランでは絶対に入力しないでください。
Cursorとの違い
どっちもエンタープライズ対応してるんですけど、Claude CodeはAPIプランで標準的にZDRが提供されてるのに対して、CursorはPrivacy Modeを自分で設定する必要があるんです。デフォルトのセキュリティレベルが違うってのは、知っておいた方がいいですね。
ただ、Cursorは月額固定料金で多機能なIDEとして使える一方、Claude CodeはVS Code拡張として使えて、APIクレジット制なので使用量に応じた料金になるって違いもあります。
で、結局使えるの?
条件付きで使える ってのが結論です。
ただし、以下は必須条件です。
エンタープライズプラン/APIプラン(推奨)
- 法人契約で管理機能があるプランが必須
- Zero Data Retentionが標準提供
- 社内規定と法務部門の承認を取る
-
JDLAガイドラインに準拠した利用ルールを策定する
- 個人情報は入力しない
- NDA締結先から得た秘密情報は入力しない
- 特許出願予定の技術情報は入力しない
- API KEYやパスワードをハードコードしない
Claude Pro/Maxプラン(企業が経費負担する現実的な選択肢)
- 企業メールアドレスでアカウント払い出しすれば、小規模(3〜5人)・非機密プロジェクト限定で使える
- プライバシー設定を「学習に使用しない」に必ず設定
- 30日間のデータ保持を許容できること
- 管理機能はないが、アカウント払い出し・退職時対応は企業側で可能
-
JDLAガイドラインで示されている以下は絶対に入力禁止
- 個人情報(顧客氏名、住所、メールアドレス等)
- NDA締結先から得た秘密情報
- 特許出願予定の技術、コアノウハウ
- API KEY、パスワード等の認証情報
- 試験導入フェーズ(3〜6ヶ月)として使い、効果を測定
- 早期にAPIプラン以上への移行を計画すること
正直なところ、Pro/Maxプランは「予算が限られるスタートアップや中小企業の試験導入」として、企業メールアドレスできちんと管理すれば現実的に使えます。ただし本格的に業務で使うなら、リスクとコストを天秤にかけて、できるだけ早くAPIプラン以上への移行を検討してください。
実際に導入するなら
いきなり全社展開は危ないんで、段階的に進めるのがおすすめです。
最初の3ヶ月(検証フェーズ)
非機密の社内ツール開発で試してみて、3〜5人くらいの少人数チームに限定。この間にセキュリティインシデントが起きないか確認するわけです。
次の評価フェーズ
実際に開発効率がどれくらい上がったか測定して、セキュリティログもちゃんと監査。使ってる人からフィードバックも集めます。
拡大するかどうかの判断
ここまでの結果を経営層に報告して、OKが出たら利活用ガイドラインを正式に作って、段階的に使える範囲を広げていく感じですね。
上司への説明に使える資料
調査で見つけた以下の資料が、提案の裏付けになります。
日本の公的機関・業界団体の資料
- IPAガイドライン:テキスト生成AIの導入・運用ガイドライン(2024年7月)
-
JDLA:生成AIの利用ガイドライン 第1.1版(2023年10月)
- 生成AIの利用ガイドライン(簡易解説付)
- 生成AIの利用ガイドライン(条項のみ)
- 生成AIの利用ガイドライン作成のための手引き
Anthropic公式資料
- Anthropic公式:Updates to our Consumer Terms
- Anthropic Privacy Center - Zero Data Retention
- Anthropic Privacy Center - Data Retention
- Claude Code Data Usage Documentation
Cursor公式資料
第三者の解説記事
- Claude Security Explained - Reco.ai
- How secure is Claude Code when processing proprietary code? - Milvus
特にIPAガイドラインとJDLAガイドラインは日本の公的機関・業界団体が出してる資料なんで、社内での説得力が高いですよ。また、Anthropicの公式プライバシーポリシーは最も信頼できる一次情報源です。
JDLAガイドラインの活用方法
JDLAガイドラインは、自社の「生成AI利用ガイドライン」を作成する際のひな型として使えます:
- JDLAのサイトからWord形式でダウンロード
- 自社の状況に合わせて【】内を書き換え
- 法務部門とレビュー
- 社内規定として制定
Claude Code導入の際も、このひな型を活用すれば、スムーズに社内規定を整備できます。
注意点として、この記事の情報は2025年11月時点のものです。セキュリティ仕様やプライバシーポリシーは変更される可能性があるんで、導入する時は必ず最新の公式情報を確認してくださいね。
特に以下の情報は定期的に更新されるので、導入前には必ず最新の公式情報を確認してください。
- Anthropic公式サイトのプライバシーポリシーは定期的に更新される
- IPA公式サイトのガイドラインも技術の進展に合わせて改訂される可能性がある
- JDLA公式サイトのガイドラインも順次アップデートされる(画像編も2024年2月に公開済み)
AI開発ツールは日々進化してますから、セキュリティを確保しながら開発生産性も上げる——この両立が、これからの企業には求められるんじゃないでしょうか。
Discussion