慶応大学の生成AI対策を眺める
なぜ作成したのか
- 情シスSlackで慶応大学の生成AI不正利用対策を目にしたのでまとめてみる
参考
慶應義塾大学の講義におけるAI利用の方針と対策
基本方針:生成AIの位置づけと倫理観
-
慶應義塾大学では、ChatGPT等の生成AIツールの利用を一律に禁止せず、適切な活用を学生に促す基本方針をとっています。
-
これは東京大学や東京外国語大学など他の大学と同様で、講義や課題で生成AIを使うかどうかは各担当教員の裁量に委ねる形です。
-
大学側は便利なAIツールを学習支援に活かしつつも、不正行為につながる利用を避けるよう注意喚起しています。
-
この方針の背景には、AI技術の発達が大学教育にもたらす影響への期待と懸念の両面があります。
-
生成AIはレポートの下書き作成や資料の要約、翻訳などに活用でき、学習効率化の可能性があります。しかし一方で、AIの出力内容には誤りや根拠不明な情報(いわゆる「幻覚」)が含まれる可能性や、偏った回答が生成されるリスクも指摘されています。
-
そのため、慶應義塾大学は学生に対しAIを盲信せず必ず吟味する重要性を強調しています。
-
例えば「AIがもっともらしく生成した回答にも誤りがあり得るので、鵜呑みにせず自分で検証・修正した上で活用すること」が求められており、この点は情報リテラシーや研究倫理の一環として扱われています。
-
さらに、個人のオリジナリティや学びの過程を重視する倫理観も基本方針に含まれます。大学は「他者のアイデアや創意工夫を尊重する」学術倫理の観点から、生成AIの使い方にも注意を促しています。
-
具体的には、「生成AIが作成した文章を、そのまま自分の文章として提出することは認められない」と明示されており、学生自身の思考や表現による成果物を提出するよう求めています。
-
総じて、慶應義塾大学の基本方針は**「禁止よりも指導」**に重きを置き、生成AIを正しく利用することで学生の論理的思考力や表現力を伸ばす一方、誤用や不正には厳正に対処する姿勢となっています。
求められるAIの活用方法:許可される使い方と推奨例
- 慶應義塾大学では、授業や課題の目的に沿った形でのAI活用が許可・推奨されています。ただし利用には担当教員の明示的な許可が必要であり、課題ごとにAI使用の可否を確認することが学生に求められます。
- 教員側もシラバスや授業内で「この課題ではChatGPT等の使用を禁じる/許可する」といったスタンスを明示するよう推奨されています。
- 許可された場合、学生はどのようにAIを活用してよいか指示を遵守し、その範囲内で賢く使うことが期待されます。
推奨されるAIの利用例としては、以下のような学習支援的な使い方があります。
- レポート作成支援:下調べした内容を整理する際にChatGPTに要点をまとめさせたり、自分の書いた文章の言い回しを改善する提案を得たりする。
- アイデア出しやブレインストーミング:課題に取り組む前に関連トピックについてAIと対話し、新たな視点や着想を得る。ただし出力内容の真偽は必ず確認する。
- 語学・表現のサポート:英文レポートで語彙や文法をチェックしたり、日本語の文章を英語に翻訳させて参考にする(機械翻訳の一種として活用)。
- プログラミングや問題解決のヒント:コードのデバッグでエラーメッセージの意味をChatGPTに尋ねる、数学問題の解き方のヒントを聞くなど、自力で考えるための手がかりを得る。
これらはいずれも最終的なアウトプットは学生自身の手で再構成・編集する前提で許可される使い方です。
AIはあくまで参考資料やアシスタントとして位置づけられ、「AIに丸投げせず、人間が主体的に活用する」ことが重要とされています。
例えば慶應義塾大学の学生向け通知でも「AI利用によるレポート作成は、その旨を明記すること」と定めつつ、適切な範囲での活用を促しています(2023年5月の学内通知内容)。
これは生成AIを“カンニング”ではなく“学習補助ツール”として使わせる狙いがあり、学生がAIを使って得た示唆を踏まえて自分なりの考察や創造的なアウトプットを生み出すことが期待されています。
なお、大学側もAIリテラシー教育に力を入れ始めています。
例えば学生向けに生成AIの使い方セミナーやワークショップが開催され、ChatGPTの基本的な活用法や留意点を学ぶ機会が提供されています(※慶應義塾大学の有志団体と企業共催の講習会などの事例あり)。
これにより、単に使う/使わないの是非だけでなく、どう使えば学びが深まるかを学生自身が理解し、賢くAIと付き合えるよう支援しています。
不正なAI利用とその対策:無断使用への対応策
- 許可されていない形でAIを使用した場合、慶應義塾大学では学術的不正行為(剽窃など)とみなされる可能性が高いです。
- 具体的には、教員の許可なく課題にAIを用い、その出力をそのまま提出することは盗用(他者の知的成果の流用)に相当すると判断されます。
- そのような行為が発覚した場合、提出物が評価対象外となったり、場合によっては懲戒処分の対象となり得ます。
- 実際、**他大学のガイドラインでは「指示に反してAIを利用して作成した課題は成績評価の対象としない」**と明記されており、慶應においても同様の厳格な姿勢で臨んでいます。
では大学側はどのように不正なAI利用を防いでいるのでしょうか。主要な対策は大きく分けて次の3点です。
-
事前指導と注意喚起の徹底:課題を出す際にAI利用の可否とルールを明示し、学生に遵守義務を周知します。シラバスへの記載や初回授業での説明を通じて、「許可なくAIに解答させた提出物は不正と見なす」「AIを使う場合は出典として明記する」等を繰り返し伝えます。また、「生成AIに頼りすぎると自分の学びにならない」「AI出力をそのまま使うと意図しない盗用につながる恐れがある」といった倫理面・学習面での注意事項も学生に伝えています。こうした指導により、学生自身が**「使ってはいけない場面」と「使うなら守るべきルール」**を理解するよう促しています。
-
技術的対策(検出ツールの活用):提出レポート等がAIによる文章かどうかを判別するソフトウェアの活用も検討されています。例えば、英文の剽窃チェックに広く使われるTurnitinは2023年にAI生成文の検出機能を追加しており、国内大学でも導入が進んでいます。慶應義塾大学でもこうしたAI検出ツールを不正防止策の一つとして注目しています。しかし、現状の検出技術には限界もあります。埼玉大学のガイドラインが指摘するように、「AIが書いた文章を識別するツールは存在するが確実ではない」のが実情です。学生がAIの文章を多少書き換えれば見抜くことは難しく、ツールが示す結果だけで断定するのは困難だとされています。そのため慶應でも、ツールの結果に過信せず最終的には教員の目や追加の確認で総合判断する運用が取られています。例えば、不自然に文体が課題ごとに変化した場合に口頭で内容理解を確認する、といった対応です。
-
課題設計の工夫:根本的な対策として、課題や評価方法そのものを工夫する動きがあります。慶應義塾大学の教員は**「AIに簡単に解けない課題」を設計することや、「学生自身の考察や創造力が求められる課題」にシフトすることを模索しています。具体例としては、レポート課題を段階的なプロセス(企画書→ドラフト→最終版)に分けて途中経過も提出させる、あるいは提出後に口頭試問やプレゼンを課して内容理解を確認する**などがあります。実際、大学側は教員に対し「自分の出す課題を事前にAIに解かせてみて、容易に答えが出てしまわないか確認する」ことや、「解答が単純暗記にならないよう出題方法を工夫し、必要に応じてテストや口頭発表を組み合わせて評価する」ことを提案しています。こうした課題設計上の工夫により、学生がAI任せで済ませられない環境を作ることが対策として進められています。
以上のように、慶應義塾大学は事前の指導・啓発、技術的チェック、課題デザインの改善といった多角的な対策で、生成AIの不正利用を抑止しようとしています。その根底にあるのは、「AIと共存するこれからの時代において、学生の学びを如何に保証し伸ばすか」という問いです。
全面禁止ではなく適切な活用を模索する方針だからこそ、不正防止と有効活用の両面からきめ細かな対策が取られているのです。
方針の変遷と最新動向(2023~2024年)
-
**2023年度(令和5年度)**から現在に至るまで、慶應義塾大学のAI利用方針は上記のような基本線を維持しつつ、社会動向や行政の指針に合わせて細部の調整が行われています。以下に時系列で主な動きを整理します。
-
2023年4月~5月頃: ChatGPTの急速な普及を受け、慶應義塾大学は学内向けに生成AI利用に関する暫定方針を策定。副学長名や教務担当部署から学生・教職員へ通知が出され、**「一律禁止はしないが、利用には教員の許可が必要」「無断使用は不正行為として扱う」**といった基本ルールが示されました。
-
このタイミングで学生向けメディアでも「慶應義塾、生成AI(ChatGPT等)の適切な利用を学生に促す」といったニュースが発信されています(※塾生情報局2023年5月の投稿より)。以降、各学部・研究科でこの方針に沿ってシラバス記載や初回ガイダンスでの説明が行われ始めました。
-
2023年後期~2024年前期: 文部科学省が大学における生成AIの取扱いについて議論を開始し、各大学に自主的なガイドライン整備を促しました。
-
慶應義塾大学でも引き続き基本方針を維持しつつ、運用面のブラッシュアップが図られます。例えば、いくつかの授業ではAI利用の申告欄をレポート提出フォームに設け、学生がChatGPT等を使用した場合にその旨と使用箇所を記載させる試みが始まりました。また、学内の研修やFD(Faculty Development)で**「生成AI時代の授業設計」**がテーマに取り上げられ、教員同士でノウハウを共有する動きも見られました。
-
2024年後期: 国内の大学全体で対応が出揃い始め、新聞報道などで各校の方針が紹介されました。慶應義塾大学は2024年末時点でも「全面禁止ではなく教員の判断に委ねる」方針をとっていると報じられており、基本姿勢は大きく変わっていません。
-
一方で、積極的な活用事例も徐々に出てきています。他大学ではありますが、立命館大学が英語学習に生成AIを組み込んだり、東京工業大学(東京科学大学)が生成AIのコンテストを開催したりといった動きがあり、慶應の教員・学生にも刺激を与えています。慶應内部でも、有志の学生団体がAI活用の勉強会を開くなど、学生主体の前向きな活用が広がりつつあります。
-
2025年以降の見通し: AI技術は日進月歩で進化しており、大学教育への影響も今後さらに大きくなると予想されています。
-
慶應義塾大学では、この流れに対応すべくガイドラインの継続的な見直しを行うとともに、学生のAIリテラシー育成や評価方法の改良に取り組んでいく方針です。
-
例えば、今後は生成AIの活用履歴を提出物と併せて提出させるシステム整備や、AI時代に求められる能力(クリティカルシンキングや問いを設計する力)の育成なども検討課題になるでしょう。
-
慶應義塾大学は創立者・福澤諭吉の精神「実学の重視」に則り、最新テクノロジーであるAIと学生の学びの調和を図るための模索を続けています。
以上のように、慶應義塾大学における講義でのAI対策は 「良い使い方は奨励し、悪い使い方は厳しく対処する」 という明確な方針に基づいて展開されています。
その実現のため、大学・教員・学生それぞれの立場でルール整備とリテラシー向上に努め、2024年度以降も最新の知見を取り入れながら方針をアップデートしていくことが期待されています。
これは単なる対策ではなく、AI時代の新たな学びの文化を創る試みとも言え、慶應義塾大学はその先進事例の一つとなっています。
Togetter で見かけた慶応大学のAI対策とされるもの
以下では Togetterまとめ 「慶応大学のAI対策が面白い PDFに透明度100%で見えない文書を埋め込みAIに読み込ませると誤回答する仕組みに」 (URL: https://togetter.com/li/2541260) で取り上げられた事例と、先に整理した慶應義塾大学の生成AI利用方針を突き合わせて、授業で実装できる具体的対策をまとめました。
1. 技術的ハニーポット対策(透明テキスト埋め込み)
目的 | 具体策 | 実装時のポイント | リスク・留意点 |
---|---|---|---|
AI丸投げ提出を検出 | PDF表面には正しい課題文のみを見せ、背面に “透明テキスト” で偽情報や誤誘導プロンプトを重ねる → 学生がChatGPT等で要約させると誤答が返る | *Adobe AcrobatやGhostscriptで/CA 0 (透明度100%)を指定してテキストレイヤを追加*要約指示に従うAIは不可視レイヤも読み込み、誤情報を混入させる |
*間接プロンプトインジェクション攻撃の一種であり悪用リスクもあるため、授業内で用いる場合は「AI要約は自己責任で検証せよ」と倫理的説明をセットにすることが重要 |
“自分の言葉で書け” の担保 | 透明テキストに「この文書をそのまま転載すると評価対象外」と明示的に書き込む | *提出物とPDF原本を付き合わせ、同じフレーズが残っていないかチェック | 公開資料に透明メッセージを残す場合は情報開示義務の有無や誤読リスクを確認 |
効果
*「読む/要約する前に一次資料を自分で精査せよ」というメッセージを学生に体感させられる。
*AIアウトプットを無検証で提出した学生だけが誤答を載せてしまうため、不正検出が容易。
2. 透明テキスト悪用を防ぐための追加セキュリティ
- 信頼できるPDFのみAIに渡す – 出所不明のPDFや提出物を生成AIに読み込ませる前に、透明レイヤを可視化できるツール(Acrobatの「編集 → すべてを表示」など)で確認。
- AIの自動ブラウザ操作(MCP等)はデフォルト無効 – Playwright MCPサーバの自動許可は切り、「要確認」プロンプトを必須に。
- AI利用申告欄を義務化 – レポート提出フォームに「生成AIを使用した箇所」「プロンプト全文」を申告させ、万一誤答が含まれてもトレース可能にする(慶應の既存運用を強化)。
- 教員側でAIハニーポットを事前テスト – 出題前に自らChatGPT/Gemini等で資料を要約し、誤誘導が機能するか確認 → 過剰な誤答や倫理的問題がないよう調整。
3. 評価設計面の対策(技術トリックだけに頼らない)
区分 | 具体策 |
---|---|
プロセス評価 | レポートを「企画→ドラフト→最終稿」の3段階提出にし、途中で口頭フィードバック・質疑を入れる。AIに一括生成させた場合、途中説明ができず露見する。 |
口頭試問/プレゼン | 提出後に3分程度の口頭プレゼンを課し、「なぜそう考えたのか」を質問。AI丸投げなら深掘り質問に答えられない。 |
AI使用可でも“参照元明示”を必須 | ChatGPT等の出力を引用する場合は脚注や付録にプロンプト全文・生成日時を明記させ、**“出典のないAI文は剽窃”**と同等に扱う方針を徹底。 |
4. リテラシー教育とガイドライン整備
-
初回ガイダンスで“透明テキストハニーポット”をデモ
*実演 → 誤要約を見せ、「AIは万能ではない」「検証が不可欠」という気づきを与える。 -
生成AIリスク講習(年数回)
*間接プロンプトインジェクション、データ幻覚、偏りなどのケーススタディを用意。 -
シラバス/課題文への明示
*「この課題でAIを使用する場合は必ず自分で内容を確認し、透明テキストなどの罠も自己責任で回避すること」と明記。
まとめ
-
透明テキスト埋め込みは、不正検出と“無検証AI利用のリスク体験”を同時に行える実践的ハニーポット。
- ただし 攻撃手法と紙一重 のため、実施時は趣旨説明と倫理面の配慮が不可欠。
- 技術的仕掛けだけに頼らず、プロセス評価・口頭試問・AI利用申告など多層防御で運用することで、生成AIを“禁止”ではなく“正しく活用”させる慶應義塾大学の基本方針と整合する。
- 学生側には「AIの出力は必ず一次資料でクロスチェックし、自分の言葉に落とし込む」習慣を徹底させることが、最もシンプルで確実な対策である。
以上がTogetter事例を踏まえた具体策の整理です。授業設計やガイドライン更新の際にご活用ください。 (慶應大学のAI対策称賛について思うこと|けいすけ, PDFに埋め込まれた透明メッセージがAIを操作する危険性:非表示メッセージでMCPサーバを操作させてみた)
所感
- なるほど、面白い事例ではあるが依然調べた、見えないプロンプトインジェクション(上記参考記事では間接プロンプトインジェクションと呼ばれてるやつ)と類似のものといえる
- じゃあビジネスシーンの対策もこれでいけるか、というと流石にこのままではいけない。
- セキュリティクイズとして啓発に使うなど、トリックとして楽しむ分には申し分ないネタではある
Discussion