生成AIツールの利用規約の読み進め方
はじめに
この記事は GENDA Advent Calendar 2025 シリーズ1 Day 13 の記事です。
株式会社GENDA EMのボブです。2025年はたくさんの生成AIツールが登場しました。
業務で生成AIツールを利用する場合、多くの企業では情報セキュリティとコンプライアンスの観点から、入力したデータがモデル改善に利用されないことが求められます。そのため法人プランやエンタープライズ版の契約形態の採用が多くなるかと思います。
一方で、検証や導入初期の段階では個人プランで触る場面もあるかと思います。しかし、個人プランでは入力データがモデル改善に利用される設定がデフォルトになっていることもあります。そのため、利用開始前に入力データの扱いを確認して、その扱いを把握したいところです。そこで本記事では、利用規約とプライバシーポリシーを読み解く確認ポイントを具体例とともに整理します。
また、ツールやSaaSによっては業務利用や組織利用は個人プランの対象外とされる場合もあります。業務で触る可能性があるなら、まず利用規約で利用可否を確認したいところです。
なぜ生成AIに入力したデータの扱いを確認するのか
改めて、生成AIツール利用前にモデルの学習についての考えを深めておきます。
たとえば、開発中のコードや、まだ公開したくないアイデアを含むプロンプトを入力する場合、それらがモデル改善に利用される設計になっているとします。この場合、意図せず情報の性質が抽象化・一般化され、間接的に第三者の出力に影響を与える可能性は完全には否定できません。また、機密情報や個人情報が含まれる可能性がある場合、データの取り扱い次第では、想定外のリスクにつながる可能性もあります。
そのため、業務利用で個人プランを利用する際にも、自分のデータがどう扱われるかを理解したうえでツールを選び、適切に設定したいところです。
利用規約やプライバシーポリシーを読む際のポイント
データの扱いを確認するには、利用規約(Terms of Use)とプライバシーポリシー(Privacy Policy)を読むことが重要です。ツールを使う際には、必ずこれらのリンクが提供されています。ツールのインストールやログインのタイミングで、入力したデータがモデル改善に利用されるかどうかを確認することで、ツールを選ぶ際の判断材料を得られます。
利用規約やプライバシーポリシーを読む際、調べた限りだと以下の共通用語が登場します。
- Opt-in/Opt-out:ユーザーが明示的に同意するか(オプトイン)、デフォルトで有効で拒否できるか(オプトアウト)
- Model Training:ユーザーの入力データや会話履歴を、AIモデル自体の性能向上(学習)に利用するかどうか
他にもさまざまな用語が登場しますが、これらの用語を抑えておくだけでも、利用規約やプライバシーポリシーを読み解く際に役立ちます。
なお、注意点として、利用規約やプライバシーポリシーは更新されるものです。常にこれらの箇所がどう変わったかを利用継続の際には気にする必要があります。本記事はその点を踏まえて、具体的にツールの設定と規約を見ていきましょう。
Cursor
Cursorでは、「Privacy Mode」という言葉でデータ利用に関する設定がまとまっています。
設定確認箇所は以下の通りです。

- Cursorの設定画面を開く(画面右上の歯車アイコンをクリックするか、
Ctrl + Shift + J(Windows/Linux)またはCmd + Shift + J(Mac)を押す) - 設定画面で「General」タブを選択
- 「Privacy Mode」のオプションを見つけて、選択
CursorのPrivacy Modeでは、コードがモデル学習やプロダクト改善に利用されない設計であることが示されています。一方で、Background Agentなどの機能を提供する目的で、一定期間コードが保存される可能性があることも明記されています。ちなみに、過去にポリシー変更があったこともあり、古いポリシーに沿った設定は、Privacy Mode (Legacy)という名前で区別されています。
利用規約の詳細は、こちらで確認できます。なお、「Privacy Mode」の詳細はSecurityに記載されています。
Claude
Claudeでは、「Model Training」という言葉でデータ利用に関する情報がまとまっています。
過去に、個人プランでの利用規約変更があり、2025年9月28日にプライバシーポリシーが更新されました。個人プラン(Claude Free、Pro、Maxなど)では、ユーザーが選択した場合にチャットやコーディングセッションをClaudeの改善に協力できるようになりました。そのため、自分のデータがClaudeの改善に利用してもよいかどうかを選択することが重要です。
Claudeを利用する場合、マニュアルに沿うと、WebUI/Claude Desktop経由だと設定 > プライバシーに「Claudeの改善にご協力ください」という項目があります。この設定を確認することで、自分のデータがClaudeの改善に利用されるかどうかを選択できます。claudeコマンドをインストールする際にも、利用規約を確認することをオススメします。
なお、注意点として、個人プラン向け(Claude Free, Pro & Max plans)と法人向け(API, Console, Team & Enterprise plans)でモデルトレーニングについてのヘルプの文言が異なります。サポートサイトを検索する際は、個人プラン向けの情報を確認するとよいです。
Claudeのケースのように、途中でポリシーが変わったり、多種多様な製品群により案内文の内容が異なる可能性もあるため、確認時は注意が必要です。
Google Antigravity
Google Antigravityでは、「Telemetry」や「Interactions data」という言葉でまとまっています。
インストール時に利用規約とプライバシーポリシーへの同意を求められます。これは、「データ収集・AIモデル改善利用」への明確なオプトイン画面となります。初期状態では「Enable Telemetry」がONでモデル学習に利用されます。しかし、設定画面で「Enable Telemetry」をOFFにすることでオプトアウトが可能な設計です。
利用規約(Terms of Use)には以下のように明記されています。
If you don't want your Interactions used in this way, navigate to settings to change your preference on how such data is used.

インストール時の同意と実際の設定画面の両方を確認することが重要です。インストール時に同意したとしても、後から設定画面で変更できることを理解しておく必要があります。
まとめ
生成AIツールを使い始めるときには、入力データがモデル改善に利用されるかどうかを確認することが、安心して利用するための第一歩となります。
今回は、利用規約やプライバシーポリシーを読む際のポイントを紹介しました。今回紹介したツールに限らず、さまざまな生成AIツールでも、利用規約やプライバシーポリシーを読む際のポイントは変わらないと思います。利用規約や設定は定期的に確認する必要がありますが、今回紹介した共通の用語を抑えておくことで、調査や設定の迷いが軽減されることを期待しています。
この記事が、生成AIツールを安全かつ適切に使い始めるときの参考になれば幸いです。
Discussion