Really Simple Licensing - AIのための新しい robots.txt的な
ChatGPTやGeminiをはじめとする生成AIの進化は凄まじく、私たちの生活や仕事に大きな変化をもたらしています。しかしその一方で、これらのAIが学習データとしてインターネット上の膨大なコンテンツを「無断で」利用しているのではないか、という懸念がクリエイターやパブリッシャー、そしてZennで記事を書く我々の間でも高まっています。
自分のブログ記事、イラスト、ソースコードが、知らないうちにAIの学習に使われ、自分の作風にそっくりなコンテンツが生成される…そんな未来を不安に思う方も多いのではないでしょうか?
これまで、AIクローラーのアクセスを制御する手段としては robots.txt
がありましたが、これはあくまで「お願い」ベースの紳士協定であり、法的拘束力はありませんでした。
そんな中、著作者がAIに対して明確な意思表示を行うための新しいインターネット標準規格「Really Simple Licensing (RSL)」 が、MediumやReddit、Quora、Yahoo、O’Reillyなどが参加するコンソーシアムによって開発された新しいプロトコルとして提案され、注目を集めています。
RSL (Really Simple Licensing) とは?
RSL (Really Simple Licensing) は、ウェブサイトの運営者やコンテンツの作者が、自身のコンテンツをAIサービスにどのように利用してほしいか(あるいは、してほしくないか)を、機械可読な形でシンプルに表明するための標準規格です。
公式サイトでは、その目的を以下のように説明しています。
RSL is a simple, universal, and machine-readable way for creators to grant or deny AI companies the right to use their work.
(RSLは、クリエイターがAI企業に対して、自身の作品の使用権を許諾または拒否するための、シンプルで普遍的、かつ機械可読な方法です。)
RSLの最大の特徴は、人間が読むためのライセンス条文とは別に、AIクローラーなどのマシンが自動的に解釈できるシンプルなライセンスファイルを提供している点にあります。
RSLの仕組み
RSLの導入は比較的簡単です。基本的な考え方としては、robots.txt
と同様にサイトのルートディレクトリにライセンス情報ファイルを配置し、そこに自サイトのコンテンツ利用ポリシーを記述します。現行バージョン (1.0) では、このライセンス情報はXML形式で記述し、robots.txt
にそのライセンスファイルへのURLを記載することでクローラーに通知します。
例えば、robots.txt
に以下のような一行を追加します。
License: https://example.com/license.xml
このように記載しておくと、RSLに対応したAIクローラーはクロール時に自動的に license.xml
を取得し、そこに定義された利用条件に従うことが求められます(もし従わなければアクセスを拒否される仕組みも提案されています)。
ライセンス情報ファイル(例えば上記の license.xml
)には、どのAIサービスに対して、どのような行為(クロール、学習への利用、生成への利用、表示など)を許可または禁止するか、といった項目を機械が理解できる形式で記述します。
ライセンス情報で指定できる主な項目は以下の通りです。
-
version
: RSLのバージョン(現在は "1.0")。 -
services
: ポリシーの対象とするAIサービスを指定します。 はすべてのサービスを意味します(特定企業のクローラー名やサービス名を指定することも可能)。 -
rights
: 許可または拒否する行為(権利)の種類を指定します。例として次のような種類があります。-
crawl
: コンテンツをクロール(取得)すること -
train
: コンテンツをAIモデルの学習データに使用すること -
generate
: コンテンツを基に新しいコンテンツ(回答や画像など)を生成すること -
display
: 検索結果やAIの回答でコンテンツの全部または一部を表示すること
-
-
consent
: 上記の権利をallow
(許可) するかdeny
(拒否) するか。
具体的な設定例
-
例1: 「あらゆるAIによる利用」を拒否する場合
もしあなたが、自分のサイトのコンテンツをいかなるAIサービスにも利用されたくない場合、rsl.json を以下のように記述します。
{ "version": "1.0", "services": "*", "rights": "*", "consent": "deny" }
-
例2: 「特定のAIによる学習のみ」を拒否する場合
例えば、「Googleの検索結果には表示してほしい(クロールや表示はOK)けど、GoogleのAIモデルの学習に利用されるのは拒否したい」という場合は、以下のように設定します。
{ "version": "1.0", "services": "GoogleAI", "rights": "train", "consent": "deny" }
このように、サービスや権利を細かく指定して、柔軟な意思表示が可能です。
HTMLの<meta>タグで指定する方法
サイト全体ではなく特定のページ単位でポリシーを示したい場合は、HTMLの <head>
内にRSLのライセンス情報を埋め込む方法もあります。公式には、<script type="application/rsl+xml">
タグ内にXMLで直接ライセンスを記述する方法や、外部ライセンスファイルへのリンクを貼る方法(<link rel="license" type="application/rsl+xml" href="...">
)が提供されています。
簡易的な例として、ページ単位で「このページの内容はAIに使わせたくない」と表明するには、以下のような <meta>
タグを記述することも考えられます。
<meta name="rsl" content="version=1.0, services=*, rights=*, consent=deny">
robots.txt
ではダメなのか?
なぜ 「AIクローラーの制御なら、robots.txt
で十分じゃないの?」と思うかもしれません。しかし、robots.txt
にはいくつかの限界があります。
-
法的拘束力がない:
robots.txt
はあくまでクローラーに対する「お願い」であり、従うかどうかはクローラー側に委ねられています。無視してクロールすることも可能です。 -
目的が曖昧:
User-agent: *
Disallow: /
と書いても、それが「検索エンジンにインデックスされたくない」のか「AIの学習データとして使われたくない」のか、目的が不明確です。 -
ライセンスの表明ではない:
robots.txt
はアクセスの可否を示すものであり、著作権や利用許諾といったライセンスに関する明確な意思を示すものではありません。
RSLは、これらの問題を解決するために生まれました。rsl.json
は、単なるアクセス制御ではなく、法的な根拠を持つライセンスの意思表示として機能することを目指しています。クリエイターが「私の作品をAIの学習に使うことを許諾しません」と明確に宣言するための、標準化されたツールなのです。
まとめ: クリエイターが主導権を取り戻すために
RSLは2025年9月に提案されたばかりの新しい規格であり、現時点(2025年9月末)ではすべてのAI企業がこれに準拠しているわけではありません。実際の効果を発揮するには、AI側(OpenAIやGoogleなど)がRSLに対応し、クローラーがライセンス情報を尊重する必要があります。
とはいえ、Mediumの共同創設者であるエヴァン・ウィリアムズ氏がこの動きを支援すると表明したように、業界内での注目度は高まっています。
また、RedditやYahooなど大手サイトも参加して標準策定に関わっており、今後無視できない流れになる可能性があります。
重要なのは、多くのクリエイターやパブリッシャーがRSLを導入し、「私たちのコンテンツをどう扱うかは私たちが決める」という意思をインターネット全体で示すことです。
そうなればAI企業側もその意思を尊重せざるを得なくなり、ひいては適正な対価やクレジットを支払う交渉の土台が築かれていくでしょう。RSL自体、音楽業界のASCAP/BMIのような集団的交渉モデルをインターネットコンテンツに持ち込むことを目指しており、非営利組織「RSL Collective」による一括ライセンス交渉・ロイヤリティ分配の仕組みも整いつつあります。
Zennの対応
では、私たちZennのようなプラットフォーム上で記事を書くクリエイターにとって、RSLはどのように関わってくるでしょうか。
現時点では、Zenn自体が公式にRSLに対応したとのアナウンスは確認できません(主要な参加企業に日本発のサービスは含まれていません)。
いずれにせよ、AI時代においてクリエイター自身が主導権を取り戻すために、RSLは非常に重要な一歩となることは間違いありません。
ご自身のブログやサイトを運営している方は、早速この新しい仕組みを調べて導入を検討してみてはいかがでしょうか。
Discussion