🔰

JDLA Generative AI Testのすすめ【無料教材あり】

2023/06/18に公開

はじめまして、ますみです!

株式会社Galirage(ガリレージ)という「生成AIに特化して、システム開発・アドバイザリー支援・研修支援をしているIT企業」で、代表をしております^^

自己紹介.png

この記事では「JDLA Generative AI Test」の概要とオススメの学習法を解説します!

この記事を通して、これからJDLA Generative AI Testを受験予定の方の助けになれば幸いです^^

JDLA Generative AI Testとは?

まずJDLA Generative AI Testとは、一般社団法人日本ディープラーニング協会(Japan Deep Learning Association; JDLA)が開催している「生成AI活用知識確認のためのテスト」です。

改めて2023年は、チャット(自然言語)を生成する「ChatGPT」や画像を生成する「Midjourney」などの様々なAIが発展しましたね。

それらの生成AIを適切に活用するための知識を問う試験が「Generative AI Test」です。

2023年の試験概要は下記のとおりです。

項目 概要
開催日時 2023年6月24日 10:00~23:59
受験費用 2,200円(税込)
受験資格 どなたでも受験可能
受験方法 オンライン実施
試験時間 15分
問題数 20問
問題形式 択一式 / 多肢選択式

https://www.jdla.org/certificate/generativeai/

出題範囲(シラバス)

まず全体として、以下の3つの領域が出題範囲になります。

  1. 生成AIの技術
  2. 生成AIの利活用
  3. 生成AIのリスク

それぞれの出題範囲のより細かいテーマは下記のとおりです(ホームページより一部改変)。

1. 生成AIの技術

  • 必要要件
    • テキスト、画像、音声等の生成モデルに共通する技術的な特徴を俯瞰して理解している。
    • 大規模言語モデルの基本構造を理解している。
    • 大規模言語モデルにおけるモデルの学習方法を理解している。
    • 大規模言語モデルのアラインメントを理解している。
    • 大規模言語モデルにおける生成の仕組みを理解している。
    • テキスト、画像、音声等の生成モデルの技術動向を俯瞰して理解している。
    • 大規模言語モデルのオープン化の動向と原因について理解している。
    • 大規模言語モデルの性能を決める要素の動向と原因について理解している。
    • 大規模言語モデルのマルチモーダル化の動向と原因について理解している。
    • 大規模言語モデルの外部ツール・リソースの利用の動向と原因について理解している。
  • 出題テーマ(キーワード)
    • 確率モデル
    • ハルシネーション (Hallucination)
    • 基盤モデル
    • 言語モデル
    • 大規模言語モデル (LLM)
    • トランスフォーマー (Transformer)
    • アテンション (Attention)
    • GPT-3
    • 教師あり学習
    • 自己教師あり学習
    • 事前学習
    • ファインチューニング
    • アラインメント (Alignment)
    • 人間のフィードバックによる強化学習 (RLHF)
    • インストラクション・チューニング (Instruction Tuning)
    • コンテキスト内学習 (In-Context Learning)
    • Zero-Shot
    • Few-Shot
    • サンプリング手法
    • 条件付き生成
    • 拡散モデル (Diffusion Model)
    • オープンコミュニティ
    • オープン大規模言語モデル
    • オープンデータセット
    • オープンソース
    • スケーリング則 (Scaling Laws)
    • データセットのサイズ
    • データセットの質
    • モデルのパラメーター数
    • 計算資源の効率化
    • GPU
    • マルチモーダル
    • 学習データの時間的カットオフ
    • 大規模言語モデルの知識
    • 大規模言語モデルの不得意タスク

2. 生成AIの利活用

  • 必要要件
    • 生成AIには何ができるのかを理解している。
    • 生成AIをどのように使うのかを理解している。
    • 生成AIの性能を拡張する使い方を理解している。
    • 生成AIの新たな活用方法を生み出すためのアプローチを理解している。
    • 生成AIの活用を制限する要因を理解している。
    • 業界に特化した生成AIの活用方法を理解している。
  • 出題テーマ(キーワード)
    • 生成AIのケイパビリティ
    • 生成AIの活用事例
    • プロンプトエンジニアリング
    • 生成AIの活用方法を生み出すアプローチ(ハッカソン、自主的なユースケース開発、インターネット・書籍、活用の探索)
    • 生成AIの学習データ
    • 生成AIの性能評価
    • 生成AIの言語能力
    • ChatGPT・Bard
    • 広告クリエイティブへの応用
    • ドメイン固有

3. 生成AIのリスク

  • 必要要件
    • 生成AIが、技術面・倫理面・法令面・社会面などで多様なリスクを孕むことを理解している。
    • 生成AIの入力(データ)と出力(生成物)について注意すべき事項を理解している。
    • 生成AIについて、現時点では認識されていない新たなリスクの出現とそれに伴う規制化の可能性を理解している。
    • 生成AIの活用に伴うリスクを自主的に低減するための方法を把握している。
  • 出題テーマ(キーワード)
    • 正確性
    • ハルシネーション (Hallucination)
    • セキュリティ
    • 公平性
    • プライバシー
    • 透明性
    • 著作権
    • 個人情報
    • 機密情報
    • 商用利用
    • 利用規約
    • 新たなリスク
    • 規制化
    • 情報収集
    • 自主対策

学習教材(無料)

1. 「生成AIの衝撃」〜ChatGPTで世界はどう変わるのか〜(公式教材)

JDLAの過去イベントの動画とイベントレポートの中で、上記のシラバスの内容が多く含まれています。

  • 言語:日本語
  • 形式:記事 + 動画

https://www.jdla.org/topic/event-20230309/

2. 生成AIの利用ガイドライン(公式教材)

JDLAの公開している生成AIの利用ガイドラインを確認しておくことをオススメします。

  • 言語:日本語
  • 形式:ドキュメントファイル(Word)

https://www.jdla.org/document/#ai-guideline

3. ChatGPT Prompt Engineering for Developers

OpenAIとDeepLearning.AIという企業が共同で制作した「ChatGPT Prompt Engineering for Developers」という動画教材もオススメです。

  • 言語:英語
  • 形式:動画

https://www.deeplearning.ai/short-courses/chatgpt-prompt-engineering-for-developers/

4. サクッと始める「ChatGPT / LangChain」

以下のZenn本に、ChatGPTとプロンプトエンジニアリングの技術の一つであるLangChainについてまとめているため、こちらもぜひご参照ください◎

  • 言語:日本語
  • 形式:記事 + 動画

https://zenn.dev/umi_mori/books/chatbot-chatgpt

https://zenn.dev/umi_mori/books/prompt-engineer

5. Prompt Engineering Guide

DAIR.AIという研究所が作ったプロンプトエンジニアリングに関する座学の教材になります。

  • 言語:日本語、英語
  • 形式:記事

https://www.promptingguide.ai/jp

学習ロードマップ

個人的にオススメする学習ロードマップは次の通りです。

  1. 「生成AIの衝撃」〜ChatGPTで世界はどう変わるのか〜(公式教材)
  2. 生成AIの利用ガイドライン(公式教材)
  3. サクッと始めるチャットボット【ChatGPT】
  4. ChatGPT Prompt Engineering for Developers
  5. Prompt Engineering Guide
  6. サクッと始めるプロンプトエンジニアリング【ChatGPT / LangChain】

上記のロードマップをオススメする理由としては、まず公式教材を理解した後に、ChatGPTについて詳しくなり、その後により開発者向けの知識を学んでいくロードマップになっています。

最後の「サクッと始めるプロンプトエンジニアリング【LangChain】」は、実践的なプログラミングが中心になるため、今回のテストにおける必須の教材ではない一方で、プロンプトエンジニアリングのイメージを掴む上でご活用ください◎

まとめノート

最後に、私がこのテストを受けるにあたって作成したまとめノートを公開します。
もしよければ、試験を受ける際の参考にしてください。

確率モデル

  • 確率モデルは、事象の起こりやすさを数学的にモデル化したものです。
  • 生成AIにおいては、確率モデルを使用して、文や画像などのデータを生成することがあります。
  • 確率モデルは、与えられた入力に対して出力を生成する際に、事象の確率分布を考慮し、より現実的な結果を得るために利用されます。

ハルシネーション (Hallucination)

  • ハルシネーションは、生成AIが現実には存在しない情報や内容を生成することを指します。
  • 生成AIは、訓練データに基づいてデータを生成しますが、時には訓練データに存在しない情報や想像上の要素を含む生成物を作り出すことがあります。
  • ハルシネーションは、生成AIの課題の一つです。

基盤モデル

  • 基盤モデルとは、膨大なデータで学習した大規模な人工知能モデルです。
  • 機械学習における訓練は、上流(Upstream)と下流(Downstream)の2段階に分けることができます。
  • この時、事前学習(Pre-training)が上流工程にあたり、転移学習やファインチューニングが下流工程にあたります。
  • 基盤モデルは、上流工程である事前学習がされたモデルのことで、下流工程における様々なタスク(ターゲットタスク)へ適用(Adaptation)することができます。
  • たとえば、GPT-3は基盤モデルの一つで、翻訳や要約などの様々なタスクを行うことができます。

言語モデル

  • 言語モデルは、文の生成や文の意味解釈など、自然言語に関するタスクを行うためのモデルです。
  • 生成AIにおいては、言語モデルがテキスト生成や文章の理解などに利用されます。
  • 言語モデルは、文脈を考慮して単語やフレーズの出現確率を推定することで、より自然な文章の生成を行います。

大規模言語モデル (LLM)

  • 大規模言語モデル(Large Language Model; LLM)は、巨大なデータセットを用いてトレーニングされた高性能な言語モデルのことを指します。
  • GPT-3は、大規模言語モデルの一つです。

トランスフォーマー (Transformer)

  • トランスフォーマーは、自然言語処理や機械翻訳などのタスクにおいて優れた性能を発揮するニューラルネットワークのアーキテクチャです。
  • トランスフォーマーは、データの中で注目すべき場所を推測するというアテンション機構と呼ばれる仕組みを使用しています。
  • Googleが2017年に発表したモデルで、このモデルはそれ以降の生成AIに大きな影響を与えています。

アテンション (Attention)

  • アテンションは、トランスフォーマーアーキテクチャなどで使用される重要な機構の一つです。
  • アテンションは、入力の異なる位置や要素の間の関連性や依存関係をモデル化し、特定の情報に重点を置くことができます。
  • アテンション機構は、生成AIが文脈を理解し、適切な情報を参照するために利用されます。

GPT-3

  • GPT-3(Generative Pretrained Transformer 3)は、OpenAIが開発した大規模言語モデル(LLM)の一つです。
  • GPT-3は、1750億個のパラメーターを持つ非常に大規模なモデルであり、自然言語処理のさまざまなタスクにおいて驚異的な性能を発揮します。
  • GPT-3は、文章生成や質問応答、文章の要約など、多岐にわたる応用が可能です。

教師あり学習

  • 教師あり学習は、機械学習の一種であり、入力データと正解データ(ラベル)のペアを使用してモデルをトレーニングする手法です。
  • 生成AIにおいては、教師あり学習を使用して、入力に対する正しい出力を学習させることで、適切な生成結果を得ることができます。

自己教師あり学習

  • 自己教師あり学習(Self-Supervised Learning; SSL)は、ラベルのないデータから、ラベルを作成する教師なしの学習する手法です。
  • たとえば、与えられた文章の中の単語をランダムにマスクし、周辺の単語からマスクされた単語を予測するという問題を設定した場合、与えられた文章からラベル付きのデータを作成することができます。
  • 自己教師あり学習は、生成AIが大量のデータを使用する教師あり学習と比べて、効率的にモデルのトレーニングを行うことができます。

事前学習

  • 事前学習(Pre-training)は、転移学習やファインチューニングをする前の段階で、大量のデータを用いてモデルをトレーニングする手法です。
  • 事前学習によってモデルは言語の知識や構造を獲得し、ファインチューニングによって具体的なタスクに特化させることができます。

ファインチューニング

  • ファインチューニングは、事前学習済みのモデルを特定のタスクに合わせて微調整する手法です。
  • 生成AIでは、大規模な言語モデルを事前にトレーニングし、その後、特定の下流タスクにおいてさらなるトレーニングを行います。
  • ファインチューニングによって、生成AIは特定のタスクにおいてより良いパフォーマンスを発揮することができます。

アラインメント (Alignment)

  • アラインメントは、生成AIのトレーニングプロセスにおいて、モデルが所望の出力を生成するように学習されるプロセスや目標を指します。
  • アラインメントは、教師あり学習や自己教師あり学習において重要な要素であり、生成AIが望ましい結果を出力するためにモデルが調整される仕組みを指します。
  • ここで、一般的に望ましい結果とは、人間にとっての好みや倫理原則に合致する結果を指します。

人間のフィードバックによる強化学習 (RLHF)

  • 人間のフィードバックによる強化学習(Reinforcement Learning from Human Feedback, RLHF)は、言語モデルに対して、人間のつけたラベル(フィードバック)からの強化学習でファインチューニングするアルゴリズムです。
  • 生成AIが生成した結果を人間が評価し、その評価をフィードバックとしてモデルを更新することで、より望ましい結果(アラインメントされた結果)を得ることができます。
  • RLHFは、ChatGPTの中のアルゴリズムとして採用されています。

インストラクション・チューニング (Instruction Tuning)

  • インストラクション・チューニング(指示調整)は、多様な指示(タスク)のデータセットを用いて微調整するファインチューニングの手法です。
  • Instruction Fine-Tuning(指示微調整)と略される場合もあります。
  • インストラクション・チューニングを行うことで、より汎用的タスクへ適用できます(Zero-Shot性能の向上とも捉えることができます)。

コンテキスト内学習 (In-Context Learning)

  • コンテキスト内学習は、プロンプト内に組み込んだ情報(コンテキスト)を用いて学習する手法です。
  • 生成AIは、会話や文章の一部のコンテキストを与えられることで、そのコンテキストに基づいてより適切な応答や文章を生成することができます。

Zero-Shot

  • Zero-Shotは、生成AIが訓練時(もしくはコンテキスト内学習への入力)に与えられていないタスクやドメインに対しても処理する能力を指します。
  • 生成AIがZero-Shotで動作する場合、新しいタスクやドメインにおいても少ない追加情報や指示を与えるだけで、意味のある結果を生成することができます。
  • Zero-Shotの能力は、生成AIの柔軟性や汎用性を示す重要な要素となります。

Few-Shot

  • Few-Shotは、限られた数の例やデータ(特に、コンテキスト内学習にて与えられた例題)を用いて新しいタスクやドメインに対して学習する能力を指します。
  • 生成AIがFew-Shotで動作する場合、ごく少数のトレーニングデータを利用して、新しいタスクに対する性能を高めることができます。

サンプリング手法

  • サンプリング手法は、生成AIが文章やデータを生成する際に使用される手法やアルゴリズムのことを指します。
  • サンプリング手法には、ランダムサンプリング、ビームサーチ、トップkサンプリングなどがあります。
  • ランダムサンプリングは、確率分布に基づいてランダムに単語やトークンを選択する手法です。
  • ビームサーチは、生成された候補の中から最も確率的に高いものを選択する手法です。
  • トップkサンプリングは、確率分布の上位k個の選択肢からランダムにサンプリングする手法です。

条件付き生成

  • 条件付き生成は、生成AIが特定の条件やコンテキストに基づいて文章やデータを生成する方法です。
  • 条件付き生成では、入力となる条件やコンテキストが生成AIに与えられ、それに基づいて適切な応答や生成結果を生成します。
  • 条件付き生成は、会話応答システムや要約生成など、特定のタスクやドメインにおいてより制御された生成を実現するために使用されます。
  • 条件付き生成には、プロンプトエンジニアリングやインストラクション・チューニングなどの手法が活用されます。

拡散モデル (Diffusion Model)

  • 拡散モデルは、画像データを生成するモデルの一つです。
  • DALL•E2やStable Diffusionのベースとなっているモデルです。
  • 元画像にノイズが加わったノイズ付き画像からノイズを取り除くプロセスをモデル化し、元画像との誤差が小さくなるようにパラメータをチューニングします。
  • 拡散モデルは、生成AIがより多様なデータを生成するための手法として活用されます。
  • 参考文献 - Denoising Diffusion Probabilistic Models

オープンコミュニティ

  • オープンコミュニティは、一般の人が自由に参加できるコミュニティのことを指します。
  • オープンコミュニティでは、研究者や開発者が情報やアイデアを共有し、共同で生成AIの進歩や技術の向上に取り組みます。

オープン大規模言語モデル

  • オープン大規模言語モデルは、一般の研究者や開発者によって利用・改善されることを目的とした大規模な言語モデルのことを指します。
  • オープン大規模言語モデルは、その設計やトレーニングデータ、モデルのパラメーターなどが公開され、広く利用されることを意図しています。

オープンデータセット

  • オープンデータセットは、一般の研究者や開発者によって自由にアクセス・利用できるデータセットのことを指します。
  • オープンデータセットは、生成AIのトレーニングや評価に使用され、研究の透明性や再現性を高めるために重要な役割を果たしています。

オープンソース

  • オープンソースは、ソフトウェアやハードウェアの開発において、ソースコードや設計図などが公開されていることを指します。
  • オープンソースの生成AIのモデルやアルゴリズムは、研究者や開発者が自由にアクセスし、利用や改善が可能です。

スケーリング則 (Scaling Laws)

データセットのサイズ

  • データセットのサイズは、生成AIのトレーニングに使用されるデータの量を指します。
  • 一般に、より大規模なデータセットを使用すると、生成AIはより多様なパターンや特徴を学習することができます。
  • データセットのサイズは、生成AIの性能や汎化能力に影響を与える重要な要素です。

データセットの質

  • データセットの質は、生成AIのトレーニングに使用されるデータの品質や信頼性を指します。
  • 質の高いデータセットは、生成AIが現実的なデータや適切な知識を獲得するために重要です。
  • データセットの質は、ノイズの除去やバイアスの対処、データの正確性などを考慮して向上させる必要があります。

モデルのパラメーター数

  • モデルのパラメーター数は、生成AIのモデルが持つ学習可能なパラメーターの総数を指します。
  • 一般に、より多くのパラメーターを持つモデルは、より複雑な関数を表現することができます。
  • モデルのパラメーター数は、生成AIの表現能力や性能に直接的な影響を与える重要な要素です。

計算資源の効率化

  • 計算資源の効率化は、生成AIのモデルのトレーニングや推論において、より効率的に計算資源を利用する取り組みを指します。
  • 計算資源の効率化には、モデルのアーキテクチャやアルゴリズムの最適化、並列処理や分散処理の活用、ハードウェアの最適な選択などが含まれます。
  • 計算資源の効率化によって、生成AIのトレーニングや推論の時間やコストを削減し、効率的な運用を実現します。

GPU

  • GPU(Graphics Processing Unit)は、並列処理や演算性能に優れた特化したグラフィックス処理ユニットです。
  • 生成AIのトレーニングや推論においては、GPUが広く利用されています。
  • GPUの高い演算性能は、大規模なモデルのトレーニングや複雑な計算処理を高速化するのに役立ちます。

マルチモーダル

  • マルチモーダルは、テキスト・画像・音声・動画などの複数の種類の情報を一度に処理することができる特徴を指します。
  • 生成AIがマルチモーダルである場合、複数の異なる情報源や形式から情報を収集し、生成や処理を行うことができます。

学習データの時間的カットオフ

  • 学習データの時間的カットオフは、学習において使用するデータの期間を指します。
  • たとえば、現在のGPT-4は2021年9月までのデータを使用して学習しています。

大規模言語モデルの不得意タスク

  • 大規模言語モデルも、全てのタスクやドメインにおいて優れた性能を発揮するわけではありません。
  • 大規模言語モデルの不得意なタスクやドメインには、「特定の専門知識」や「最新データ」が必要な場合や、意味の曖昧性や文脈の理解の難しさがある場合などがあります。
  • 生成AIを使用する際は、その応用範囲や制約を考慮し、適切な利用方法を選ぶ必要があります。

生成AIのケイパビリティ

  • 生成AIのケイパビリティは、生成AIの能力や機能を指します。
  • 生成AIは、文章の生成や要約、翻訳、会話応答など、さまざまなタスクや応用を行うことができます。
  • 生成AIのケイパビリティは、モデルの設計やトレーニングデータの品質などによって影響を受けます。

生成AIの活用事例

  • 生成AIは、多くの実用的な事例で活用されています。
  • たとえば、文章の自動生成、翻訳サービス、質問応答システム、クリエイティブなコンテンツの生成などがあります。
  • 生成AIは、効率化や創造性の向上、人間との対話の支援など、様々な領域で価値を提供することができます。
  • 具体的なサービスの例としては、Notion AI、Bing AI Chat、GitHub Copilot、Adobe Firefly、Midjourneyなどがあります。

プロンプトエンジニアリング

  • プロンプトエンジニアリングは、生成AIの出力を制御するために、入力に特定の指示や文言(プロンプト)を与える手法です。
  • プロンプトは、生成AIに対してどのような結果を期待するかを示すガイド(入力文章)にあたります。
  • プロンプトエンジニアリングによって、生成AIの出力を調整し、特定の要求や条件に適合する結果を得ることができます。

生成AIの活用方法を生み出すアプローチ(ハッカソン、自主的なユースケース開発、インターネット・書籍、活用の探索)

  • 生成AIの活用方法を生み出すアプローチには、以下のようなものがあります:
    • ハッカソンやワークショップ:開発者や研究者が集まり、共同で生成AIを活用するアイデアやプロジェクトを創出します。
    • 自主的なユースケース開発:個人や組織が自身のニーズや課題に基づいて生成AIを活用するためのアプリケーションやツールを開発します。
    • インターネットや書籍:生成AIの活用方法や応用事例に関する情報をインターネットや書籍で学び、それを基に活用方法を探求します。
    • 活用の探索:既存の課題や業務に対して、生成AIが提供できる価値や効果を探求し、適切な活用方法を見つけます。

生成AIの学習データ

  • 生成AIの学習データは、モデルのトレーニングに使用されるデータのことを指します。
  • 生成AIの学習データには、文章コーパス、対話データ、画像、音声など、応用に応じたさまざまなデータ形式が含まれます。
  • 学習データの品質や多様性は、生成AIの性能や汎化能力に大きな影響を与えます。

生成AIの性能評価

  • 生成AIの性能評価は、生成AIがどれだけ望ましい結果を生成するかを評価するプロセスです。
  • 性能評価には、人間の評価やベンチマークタスクの実施、応用タスクにおける結果の検証などが含まれます。
  • 生成AIの性能評価は、モデルの改善や比較、適切な利用方法の検討に役立ちます。
  • 評価するフレームワークとして、OpenAI Evalsなどが挙げられます。
  • OpenAI Evalsとは?

ChatGPT

  • ChatGPTは、OpenAIが開発した対話型の生成AIモデルです。
  • ChatGPTは、ユーザーとの対話に応じて応答を生成し、自然な会話を行うことができます。
  • ChatGPTは、大規模なトレーニングデータセットとトランスフォーマーアーキテクチャを使用して学習されています。
  • ユーザーが入力したテキストに対して、ChatGPTはその文脈を理解し、関連性のある応答を生成する能力を持っています。
  • ChatGPTの概要

Bard

  • Bardは、Googleが提供する会話型AIサービスです。
  • Bardとは?

広告クリエイティブへの応用

  • 生成AIは、広告クリエイティブの開発や制作にも活用されます。
  • 生成AIを使用することで、効果的なキャッチコピーの生成やコンテンツのアイデアの提供、パーソナライズされた広告の作成などが可能になります。
  • 生成AIによる広告クリエイティブへの応用によって、クリエイティブな制作プロセスの効率化やターゲットとのエンゲージメントの向上が期待されます。

ドメイン固有

  • ドメイン固有は、生成AIが特定の業界や領域に特化したデータや知識を扱う能力を指します。
  • ドメイン固有の生成AIは、その業界や領域の専門的な用語や知識を理解し、特定のタスクにおいて高いパフォーマンスを発揮することができます。
  • ドメイン固有の生成AIは、業界特有の課題やニーズに対してカスタマイズされたソリューションを提供します。

正確性

  • 正確性は、生成AIの出力結果が正確であることを指します。
  • 生成AIの正確性は、与えられた情報や要求に基づいて正しい情報を生成する能力を示します。
  • 正確性は、生成AIの性能評価や利用範囲の評価において重要な要素となります。

セキュリティ

  • セキュリティは、生成AIのモデルやデータの保護、機密性、不正利用の防止などを指します。
  • 生成AIのセキュリティは、機密情報の漏洩、マルウェアへの感染、サイバー攻撃などのリスクを最小限に抑えるために重要です。
  • セキュリティに対する適切な対策や管理は、生成AIの信頼性と社会的な受容性を確保するために欠かせません。

公平性

  • 公平性は、生成AIの出力や応用において、個人やグループに対して公平で偏りのない扱いを行うことを指します。
  • 公平性の確保は、生成AIの設計やトレーニングデータの選択、アルゴリズムの改善などを通じて実現されます。
  • 公平性は、生成AIの社会的な受容性や倫理的な観点から重要な要素です。

プライバシー

  • プライバシーは、生成AIが個人情報や個人のデータを適切に保護し、機密性を守ることを指します。
  • 生成AIのプライバシーには、データの匿名化、アクセス制御、個人情報や機密情報の保護などが含まれます。
  • プライバシーの確保は、生成AIの利用者や関係者の信頼を築くために重要な要素です。

透明性

  • 透明性は、生成AIの内部の動作や意思決定プロセスが理解可能であり、説明可能であることを指します。
  • 透明性は、生成AIのモデルの可視化、解釈可能性の向上、意思決定の説明可能性などを通じて実現されます。
  • 透明性によって、生成AIの信頼性や誤解やバイアスの排除が促進されます。

著作権

  • 著作権は、生成AIによって生成されたコンテンツや作品の著作権を指します。
  • 生成AIが著作権を持つ作品を生成する場合、その著作権の取り扱いや管理が必要です。
  • 著作権に関する法的な規制や倫理的な考慮事項は、生成AIの利用やコンテンツの活用において重要な要素です。

個人情報

  • 個人情報は、生成AIが特定の個人を識別できる情報やデータを指します。
  • 個人情報の取り扱いには、プライバシーの保護、個人情報の適切な利用、法的な制約や規制の順守などが含まれます。
  • 個人情報の適切な管理は、生成AIの利用者の信頼獲得や法的な義務の遵守に不可欠です。

機密情報

  • 機密情報は、生成AIが他者に漏洩することが許されない機密データや情報を指します。
  • 機密情報の保護は、アクセス制御、暗号化、情報漏洩のリスクの最小化などを含むセキュリティ対策によって実現されます。
  • 機密情報の漏洩は、企業や組織に深刻な損害をもたらす可能性があるため、慎重な管理が必要です。

商用利用

  • 商用利用は、生成AIをビジネスや商業目的で利用することを指します。
  • 商用利用には、商品やサービスの開発、広告やマーケティング、顧客サポートなどが含まれます。
  • 商用利用においては、法的な制約や規制、倫理的な考慮事項などを遵守する必要があります。

利用規約

  • 利用規約は、生成AIの利用に関するルールや条件を定めた契約や規約のことを指します。
  • 利用規約には、利用者の権利や責任、データの使用や共有に関する規定などが含まれます。
  • 利用者は、生成AIを利用する前に利用規約を理解し、遵守する必要があります。

新たなリスク

  • 生成AIの進展や普及に伴い、新たなリスクや課題が生じる可能性があります。
  • たとえば、誤った情報の拡散や悪用、バイアスや差別の存在、人間の仕事への影響などが挙げられます。
  • 生成AIの発展においては、これらのリスクに対処するための倫理的な規範や社会的な対話が重要です。

規制化

  • 規制化は、生成AIの利用や開発に対して政府や規制機関による規制や法的な制約が導入されることを指します。
  • 規制化の目的は、生成AIの潜在的なリスクや課題への対処、公共の利益の保護、倫理的な枠組みの確立などです。
  • 規制化には、データの保護、公平性の確保、倫理的なガイドラインの策定などが含まれます。

情報収集

  • 情報収集は、生成AIがトレーニングや応用に必要なデータや情報を収集するプロセスです。
  • 情報収集には、インターネット上の文書やデータベースのスクレイピング、公開されたデータセットの利用、ユーザーからの入力などが含まれます。
  • 情報収集は、データの適切な利用やプライバシーの保護に注意を払いながら行われる必要があります。

自主対策

  • 自主対策は、生成AIの利用者や開発者が自主的に行うリスク管理や倫理的な対策のことを指します。
  • 自主対策には、透明性の確保、公平性の実現、個人情報の保護、エンドユーザーへの適切な説明などが含まれます。
  • 自主対策は、生成AIの社会的な受容性や持続可能な発展に向けた重要な取り組みです。

生成AIの利用ガイドライン(第1版、2023年5月公開)の要約

※ 本内容は、参考程度に読んでください(本記事の内容によって生じた損害について、一切の責任を負いません)。

  • 本ガイドラインは、組織(民間企業や各種組織)において生成AIを利用する場合の最低限のことを定めたガイドラインです。

  • ガイドライン作成時のTIPS

    • ガイドラインの対象のAIをホワイトリスト形式で指定する。
    • 利用禁止の用途を明確にする。
    • 「データ入力に関する注意事項」と「生成物の利用に関する注意事項」に分類できる。

    「データ入力に関する注意事項」

  • 他人の著作物をプロンプトに単に入力するだけであれば、著作権法30条の4の「情報解析」「非享受利用」に該当すると思われるため、著作権侵害のリスクは低い。

  • ファインチューニングによる独自モデルの作成における他人の著作物の利用に関しても、著作権侵害のリスクは低い。

  • ただし、他人の著作物をデータベース化して、人間が参照したり読んだりする場合は、著作権侵害に該当する可能性が高い。

  • 商標や意匠として登録されているものを生成AIに入力するだけであれば、商標権侵害や意匠権侵害に該当する可能性は低い。

  • 著名人の顔写真や氏名を生成AIに入力するだけであれば、パブリシティ権の侵害に該当する可能性は低い。

  • 入力データがモデル学習に使われるAI(OpenAI社が出しているChatGPTのウェブアプリケーションなど)に対して、個人情報を入力する場合は、本人の同意を取得する必要がある。

  • NDA(秘密保持契約)を締結して取得した秘密情報に関しては、データ保管という目的(生成AIの提供者による入力データの監視目的)までであれば、NDA違反となる可能性は低い。

  • ただし、NDAを締結して取得した秘密情報に関して、生成AIの学習に利用されてしまう場合は、NDA違反となる可能性が高い。

  • 自組織内の秘密情報に関しては、入力することによる法的な違反になる可能性は低い一方で、入力してしまうことにより方法律上の保護を受けられなくなったり、特許出願ができなくなったりするリスクがある。

「生成物の利用に関する注意事項」

  • 生成物には虚偽が含まれている可能性があります。
  • 生成物が、既存の著作物と同一もしくは類似している場合は、その生成物の利用(複製や配信など)をすることにより著作権侵害に該当する可能性がある。
    • 生成物が既存著作物と類似していないか調査する必要がある。
  • 生成物(ロゴの画像やキャッチコピーなど)を利用する場合、他者が権利を有した登録商標権や登録意匠権を侵害してしまう可能性がある。
    • 生成物が登録商標・登録意匠を侵害しないか調査する必要がある。
  • 個人に関する虚偽の情報が生成されて、その情報を利用・提供すると、個人情報保護法違反や名誉毀損・信用毀損に該当する可能性がある。
  • 生成物に対して、創作的寄与がない場合、著作権が発生しない可能性がある。
    • 創作的寄与とは、詳細かつ長いプロンプトを入力したり、複数回試行錯誤したり、同じプロンプトで複数回生成し選定をしたり、生成物に対して人間が加筆・修正をしたりする行為である。
  • 商用利用できるかどうかは、生成AIの提供者のサービス次第であるため、確認が必要である。
  • 生成AIの提供者のサービスによって、上記以外の制限がかかっていることがあるため、利用ポリシーを確認する必要がある。

最後に

最後まで読んでくださり、ありがとうございました!
この記事を通して、少しでもあなたの学びに役立てば幸いです!

宣伝:もしもよかったらご覧ください^^

AIとコミュニケーションする技術(インプレス出版)』という書籍を出版しました🎉

これからの未来において「変わらない知識」を見極めて、生成AIの業界において、読まれ続ける「バイブル」となる本をまとめ上げました。

かなり自信のある一冊なため、もしもよろしければ、ご一読いただけますと幸いです^^

Discussion