AIを使うほど記憶に残らない?MITの研究が示す、生成AIとの正しい付き合い
「この記事、何の話だっけ?」——毎日AIを使う私の違和感
私は毎日、生成AIを使っています。
セキュリティエンジニアとして、情報収集、レポート作成、技術相談、ドキュメント作成——生成AIなしでは仕事が回りません。
「AIで仕事が爆速になった!」 と胸を張って言えます。実際、記事の執筆時間は従来の半分以下になりました。
でも、ある日ふと気づいたんです。
「この記事、何の話だっけ?」
生成AIに大きく頼って記事を作り、修正して、公開して。しばらくして読み返すと、「ああ、こんなこと書いたんだ」と他人の文章を読むような感覚。自分が何を伝えたかったのか、なぜその構成にしたのか、ほとんど覚えていない。
最初は「年のせいかな」と思っていました。でも、違いました。
自分で一から書いた記事は、数週間経っても鮮明に思い出せるんです。
構成を考えたときの葛藤、言葉を選んだときの迷い、論理を組み立てたときの試行錯誤——そういう「思考のプロセス」が記憶に残っている。
一方、AIに大きく頼った記事は、出力しただけで終わっている。アウトプットは手元にあるのに、そのアウトプットに至るまでの思考が、自分の中に存在しない。
「これ、まずいんじゃないか?」
そう思っていた矢先、MITの研究論文に出会いました。
タイトルは"Your Brain on ChatGPT"。
読み進めるうちに、背筋が冷えました。
私が感じていた違和感には、脳科学的な裏付けがあったんです。
注記: 本稿で紹介する研究は初期段階のエビデンスです。「AIは危険だ」という断定ではなく、「こういうリスクの可能性が示唆された」という位置づけで読んでください。実務での活用判断は各自の文脈によります。詳細な研究の限界については記事後半で解説します。
MITの研究が明かした衝撃の事実
2025年6月、MITの研究チームが発表した論文"Your Brain on ChatGPT"は、LLM(大規模言語モデル)使用時の脳活動をEEG(脳波計)で測定した画期的な研究です。
実験の概要
54名の参加者を3つのグループに分け、エッセイ執筆タスクを実施:
| グループ | 使用ツール | 実験回数 |
|---|---|---|
| グループ1 | ChatGPTなどのLLM | 4セッション |
| グループ2 | Google検索 | 4セッション |
| グループ3 | ツール不使用(自力) | 4セッション |
各セッション中、EEGで脳波をリアルタイム測定し、タスク後に記憶テストと所有感の評価を実施。さらに4ヶ月後に追跡調査を行いました。
4つの重要な発見
私が最も衝撃を受けた結果:記憶形成の課題
研究結果の中で、私が最もショックを受けたのは記憶形成の部分です。
LLMを使ってエッセイを書いた人の多くが、自分が書いた内容を正確に引用できませんでした。
一方、検索エンジンを使ったグループやツール不使用グループは、より高い割合で内容を想起できました。
興味深いことに、最初は自力で書いてから後半でLLMを使った条件(Brain→LLM)では、想起パフォーマンスが高いケースも観測されています。これは、最初に自分で考えるプロセスが記憶形成に重要であることを示唆しています。
これ、冗談じゃなく怖くないですか?
自分が「作った」はずのアウトプットを、脳が「自分のもの」として記憶していない。つまり、記憶の符号化プロセスが十分に働いていない可能性があるということです。
なぜ記憶されないのか?
認知心理学では、長期記憶の形成には「精緻化リハーサル」が必要とされています。
- 精緻化リハーサル:情報を反芻し、異なる言葉で表現し、論理的に整理し、既存知識と関連付けるプロセス
- 維持リハーサル:表層的に読むだけ、繰り返さない
LLMを使うと、脳は「維持リハーサル」モードに入ります。結果、短期記憶にすら残らず、数分後には忘却してしまう。
私は記事を書く際、以前は生成AIに大きく頼って修正するスタイルでした。でも、自分が書いた記事の内容を、しばらくして思い出せなかった経験があります。
あれ、単なる「忘れっぽさ」じゃなかったんです。脳が最初から記憶していなかった。
脳は「省エネモード」に入っている
EEG測定では、さらに興味深い事実が明らかになりました。
LLM使用時、脳波の結合性(脳領域間の協調パターン)が相対的に低下する傾向が観測されたのです。
具体的には:
- 自力執筆(Brain-only): 広範な脳領域で強い結合性
- 検索エンジン使用: 中程度の結合性
- LLM使用: 相対的に弱い結合性
さらに、最初にLLMを使っていた人が自力執筆に切り替えた際(LLM→Brain)、アルファ波・ベータ波帯域で結合性の低下が観測されました。
| 脳波帯域 | 役割 | LLM使用時の傾向 |
|---|---|---|
| アルファ波(8-13Hz) | 記憶統合、情報処理 | 相対的に低下 |
| ベータ波(13-30Hz) | 集中、問題解決、論理思考 | 相対的に低下 |
| シータ波(4-8Hz) | 記憶形成、創造的思考 | 相対的に低下 |
| デルタ波(0.5-4Hz) | 深層情報処理 | 相対的に低下 |
つまり、脳が「深く考える」モードから、受動的な情報消費モードに移行している可能性があるということです。
認知的負債という概念
技術的負債(Technical Debt)という言葉を聞いたことがあると思います。
短期的な利便性のために、長期的な保守性を犠牲にする——あれです。
MITの研究では、これと同じ構造が認知領域でも起きていると指摘しています。それが**認知的負債(Cognitive Debt)**です。
| 短期的利益 | 長期的コスト | |
|---|---|---|
| LLM使用 | ・作業時間短縮 ・高品質なアウトプット ・即座の成果 |
・脳接続性の低下 ・記憶形成の課題 ・所有感の低下 ・判断力の低下 |
問題は、技術的負債と違って、認知的負債は「返済」に時間がかかる可能性があるということです。
研究では、LLM使用を中止したグループの脳パターンを測定しましたが、すぐには元のレベルには戻らない傾向が見られました。
さらに、実験終了から4ヶ月後の追跡調査でも、LLM依存ユーザーには以下の影響が観測期間中継続していました:
- 神経レベル:脳接続性の相対的な低下継続
- 言語レベル:複雑な文章理解・生成能力の変化
- 行動レベル:自発的執筆意欲の低下傾向
正直、背筋が冷えました。短期的な現象ではなく、長期的な影響の可能性があるからです。
注: この長期影響については、実験設計や交絡要因、統計的有意性の詳細は原論文を参照してください。観察された傾向が全ての人や状況に当てはまるとは限りません。
それでも、私はAIを使い続ける——だから、使い方を変えた
この研究を読んで、「じゃあAI使うのやめよう」と思いましたか?
私は思いませんでした。むしろ、より賢くAIを使う方法を考えました。
なぜなら、AI時代に価値を持つのは「実装力」ではなく「判断力」だからです。
問題は「AIを使うこと」ではなく、**「判断を手放すこと」**です。
実際、この研究を読んで自分のAI活用を振り返ってみると、明確な違いに気づきました。
ビフォー:依存スタイル(記憶に残らない)
生成AIに「〇〇についての記事を書いて」と大きく頼っていた時期。
確かに記事は量産できました。でも:
- しばらくして内容を覚えていない
- 「自分が書いた」という実感がない
- 同じようなテーマで何度も調べ直す
- 出力しただけで終わっている感覚
MITの研究で言う「記憶形成の課題」そのものでした。所有感は「50%自分、50%AI」くらいの曖昧なもの。
アフター:判断主導スタイル(記憶に残る)
骨子を自分で考え、たたき台をAIに作らせ、レビューと採択を自分でやるようにしてから:
- 記事の内容を数週間後も説明できる
- 「自分が判断して作った」という所有感がある
- 関連テーマで書くとき、前回の内容を思い出せる
- 思考のプロセスが自分の中に残っている
所有感は「90%自分、10%AIが支援」という感覚。学習効果、責任感、自己効力感が全く違います。
この違いは何か?「判断を手放したかどうか」です。
MITの研究でも、最初に自分で考えてからLLMを使った条件(Brain→LLM)では想起パフォーマンスが高かったという結果があります。つまり、最初に自分で考えるプロセスを踏むことが重要なのです。
認知的負債を避けるために、私が設計したフレームワーク
では、具体的にどうすればいいのか?
この研究を読んで、私は自分のAI活用方法を根本から見直しました。MITの研究知見を踏まえて、判断を手放さず、記憶形成を保ち、所有感を維持するためのフレームワークを設計し、実践しています。
1. タスクの「任せる範囲」を明確に設計する
すべてをAIに任せるのではなく、判断が必要な部分は必ず自分で行う設計にします。
基本ワークフロー
| フェーズ | 担当 | 具体的にやること |
|---|---|---|
| 1. 要件定義 | 🧠 自分 | 何を達成したいか、誰に何を伝えたいか、成功基準は何かを明確化 |
| 2. 構成設計 | 🧠 自分(or 自分+AI) | 論理の流れ、主張と根拠の関係を設計 →低リスク案件のみAI併用可 |
| 3. ドラフト作成 | 🤖 AI | 骨子に基づいて文章化 →「この骨子に忠実に、〇〇の視点で書いて」と明示 |
| 4. レビュー&修正 | 🧠 自分主導 |
判断レビュー(自分): 論理、妥当性、トレードオフ 機械レビュー(AI): 事実確認、文法、重複チェック |
| 5. 最終確認&採択 | 🧠 自分 | 「これは自分の判断で作ったものだ」と言えるか確認 →責任を持てなければリジェクト |
2. ワークフローを支える3つの実践習慣
「1.」のワークフローを実際に機能させるため、以下の3つの習慣を実践しています:
① 着手5分ノーAI:要件定義・構成設計フェーズの実践
どんなタスクでも、最初の5分はAIを使わず、自分の頭で考えるルールです。これは「1.」のワークフローでいう要件定義と構成設計を確実に自分で行うための習慣です。
この5分でやること:
- 目的の明確化: 何を達成したいのか、なぜやるのか
- 要件の整理: 誰に、何を、どのレベルで伝えるのか
- 進め方の流れ検討: どういう順序で論じるか、何が重要か
- 必要なコンテキストのイメージング: 前提知識、関連情報、制約条件
- 骨子の作成: 主張と根拠の大まかな構造
具体的な実践例:
- ブログ記事: 構成の骨子(結論、説明の流れ、主要な論点)を箇条書き
- 技術調査: 「何を知りたいか/どこまで深掘りするか/最終ゴール」をメモ
- 重要な提案: プロジェクト定義書を一から作成(AIなしで)
また、定型化した業務以外はプロンプトを一から設計する習慣をつけています。
AIに全面的に頼るのではなく、「判断基準/制約条件/期待する品質レベル」を明示したプロンプトを自分で書く。これも思考の準備フェーズの一部です。
この準備フェーズをすることで:
- 自分の思考が明確化される(何が分かってないかも分かる)
- AIの出力を評価する基準ができる(「この方向性は違う」と判断できる)
- 所有感が保たれる(最初に自分で考えたという実感)
- 記憶の符号化プロセスが働く(MITの研究でも、Brain→LLMは想起が高かった)
② 興味を起点にした情報発掘:日常的な知識管理で認知機能を維持
これは個別タスクのワークフローとは別の、日常的な知識管理の習慣です。随時、興味のある「キーワード」や「問い」が浮かんだら、すぐにその興味に則した情報収集とアウトプットを検討する習慣をつけています。
重要なのは「興味」が先にあることです。興味のないテーマで情報を集めても、記憶への定着は難しい。でも、興味があるキーワードや問いを軸にすると、過去の情報が意味を持ち始めます。
この日常習慣により、脳の認知機能が維持され、①で実践する「着手5分ノーAI」でも深く考える力が保たれます。
具体的なプロセス:
- 興味(キーワード・問い)を言語化する: 「あれ、〇〇ってどういうこと?」「△△と□□って関係あるのかな?」
- その興味に関連する情報を発掘する: 過去に読んだ記事、メモ、知識を引っ張り出す
- 情報のつながりを探る: バラバラだった情報が、この興味を軸に「つながる」瞬間を探す
- アウトプットの種を見つける: 理解が深まったら、「これ、記事にできそうだな」と種を見つける
この作業、AIに全面的に頼ると「要約してもらって終わり」になりがちです。でも自分が主体で行うと:
- 情報のつながりが強くなる(「あ、あの記事とこの記事、このキーワードでつながるじゃん!」)
- 興味を軸にした理解が深まる(自分の言葉で説明できるレベルになる)
- 記憶に定着する(興味×関連づけ×言語化が、記憶の符号化を強化する)
この習慣がないと、大量に情報を処理しても「読んだだけで終わっている」状態になります。興味を起点にすることで、過去の情報が「使える知識」に変わるのです。
③ 公開アウトプット:レビュー・採択フェーズの実践
「1.」のワークフローでいうレビュー&修正、最終確認&採択を確実に行うための習慣です。AIが生成した文章に対し、かなり批判的に見る習慣をつけています。
でも正直、内部ドキュメントだと「まあ、こんなもんか」で流してしまうことがあります。だから私は意図的にブログ投稿などの公開アウトプットを増やすようにしています。
公開前提だと、批判的チェックが強制されるからです:
- 「自分の名前で出す」というプレッシャーが、妥協を許さない
- 「間違ってたら恥ずかしい」という緊張感が、事実確認を徹底させる
- 「読者に伝わるか?」という視点が、論理の甘さを浮き彫りにする
具体的には、着手5分で考えた「自分の思考」と照らし合わせながら:
✓ ギャップ確認の観点:
- 方向性のズレ: 自分が意図した方向と、AIの出力は一致しているか?
- 論理の飛躍: 自分が考えた論理構成と比べて、飛躍や不足はないか?
- 重要度の違い: 自分が重視したポイントが、AIの出力でも強調されているか?
- 文脈の理解: 背景や前提を正しく理解した上での出力か?
- トレードオフの欠如: 自分が気にしていた制約やリスクが考慮されているか?
「なんか違う」と感じたら、必ず立ち止まる。 そして、公開できるレベルに達するまで、何度でも修正する。
この違和感は、自分が最初に考えた思考が「評価基準」として機能している証拠。MITの研究で言う「受動的処理」を回避し、脳が能動的に判断している状態です。
逆に、最初に自分で考えていないと、この違和感すら生まれません。AIの出力を「まあ、こんなもんか」と受け入れてしまう——これが認知的負債の始まりです。
公開アウトプットは、自分に厳しくなるための仕組みとして機能します。
実践してみて分かった、3つの変化
このフレームワークを2ヶ月ほど実践してみて、明確な変化を感じています。
1. 記憶の定着が圧倒的に向上した
ビフォー:
- しばらくして書いた記事の内容を思い出せない
- 「あれ、このテーマ前に調べたっけ?」と何度も同じことを調べる
- 記事を読み返しても「ああ、そうだった」という反応
アフター:
- 1週間前の記事でも「あれは〇〇を主張した記事」と即答できる
- 関連テーマで書くとき、前回の調査内容を思い出せる
- 記事を読み返すと「ここで悩んだな」「この表現は試行錯誤した」と思考プロセスまで蘇る
着手5分ノーAIと批判的チェックが特に効果的でした。最初に自分で考え、AIの出力を自分の思考と照合するプロセスが、記憶の符号化を強化しているようです。
2. 判断力への自信がついた
ビフォー:
- AIの出力を「まあ、こんなもんか」と受け入れる
- 自分の判断に自信が持てない(「AIの方が正しいのでは?」)
- 重要な判断でも「AIに聞いてみよう」が最初に来る
アフター:
- AIの出力に対して「ここは違う」と明確に判断できる
- 自分の判断基準が明確化された(着手5分で考えることで評価軸ができる)
- AIを「判断材料を提供する道具」として使えるようになった
興味を起点にした情報発掘で、自分の思考力が維持されている実感があります。興味のあるキーワードや問いを軸に情報を関連づけ、言語化する習慣が、判断力を支えています。
3. 所有感が戻ってきた
ビフォー:
- しばらくして内容を覚えていない
- 「AIが作ったものだし...」という言い訳が頭にある
- 記事への愛着が薄い
アフター:
- 数週間後も内容を説明できる
- 「これは自分が判断して作ったものだ」という誇りがある
- 記事への愛着が強くなった(だから推敲にも時間をかける)
MITの研究で指摘された「所有感の低下」は、まさにこれだったんだと実感しています。判断を手放すと、記憶も、愛着も、学習意欲も失われる。
でも、判断を取り戻すと、これらも一緒に戻ってくる。
まとめ:AIとの付き合い方は「使わない」ではなく「判断を手放さない」
私がMITの研究から学んだこと、そして2ヶ月の実践で確信したことは、こうです。
LLMを使うことそのものが問題ではない。判断を手放すことが問題なのだ。
毎日AIを使いまくっていた私が、記憶に残らない違和感に気づき、論文で脳科学的な裏付けを知り、使い方を根本から見直しました。
その結果:
- 記憶の定着が圧倒的に向上した
- 判断力への自信がついた
- 所有感が戻ってきた
実践したのは、シンプルなことだけです:
- 要件整理、骨子作成、判断審査、最終採択は自分で行う
- 着手5分ノーAI、興味を起点にした情報発掘、公開アウトプットで認知機能を維持する
- 最初に自分で考えた思考を、AIの出力と徹底的に照合する
判断を手放さない。それだけです。
AI時代に市場価値を持つのは、「何ができるか」ではなく「何を判断できるか」です。
そして、その判断力は、脳が深く考え、記憶を形成し、主体性を持つことで磨かれます。
AIは強力な道具です。でも、道具に判断を委ねた瞬間、あなたは道具の一部になります。
私は、AIを使いこなす側でいたい。だから、判断は手放さない。
あなたはどうですか?
参考文献
補足:研究の限界と本稿のスタンス
本稿で紹介したMITの研究について、読者の皆さんに知っておいていただきたい重要な注意点があります。
研究の位置づけ
- 査読状況: 本研究は現時点で査読中(またはプレプリント)の可能性があり、示される知見は暫定的です。
- 一般化の限界: 結果は特定の参加者・課題・条件に依存しており、全ての人や状況に当てはまるとは限りません。
- 本稿の解釈: 「AIは危険だ」という断定ではなく、「このようなリスクが起こり得る可能性が示唆された」という位置づけで受け止めてください。
実験設計の詳細
- セッション構成: 各グループは同一条件で3セッションを実施(LLM/検索/ツール不使用)。第4セッションはクロスオーバー(LLM→Brain、Brain→LLM)で実施され、参加者は一部(18名)のみ。
- 測定指標の意味: 本稿で言う「脳の結合性」はEEG由来の機能的結合指標の総称(例: coherence / PLV等)。厳密な定義や帯域は原論文の方法・結果節を参照してください。
表現の注意点
本稿では研究結果を分かりやすく伝えるため、以下の点に留意して記述しています:
- EEG結合性: 「全帯域で最低」といった断定は避け、「相対的に低下する傾向」という表現に統一しています。
- 記憶・引用: LLMユーザは自分の文章の正確な引用に課題が報告されていますが、Brain→LLM条件では想起が高いケースもあり、課題特性や条件により所見が分化する可能性があります。
- 長期影響: 「回復せず」という断定は避け、「4カ月の観測期間で劣後が継続」と表現しています。設計や交絡の可能性、統計的有意性の詳細は原典を参照してください。
本稿のスタンス
私は、この研究を「AIを避けるべき証拠」としてではなく、**「AIとの協働方法を設計するための重要な示唆」**として受け止めています。
実務での判断は各自の文脈・目的・制約によって変わります。本稿では、リスク理解に加えて、"自分で手動(ハンドル)を握る"ための具体策を提示することに重点を置きました。
研究は初期のエビデンスであり、一般化には注意が必要です。しかし、だからといってリスクを無視するのではなく、使い方の設計と運用でリスクを管理する——それが本稿の提案です。
Discussion