GitHub Copilotに記事を添削してもらったら、ブログの質が劇的に上がった話
はじめに
私は現在、3つのAIサービスに課金しています。ChatGPT、GitHub Copilot、Gemini。それぞれ月額で、合計すると約7,500円ほどになります。
中でも一番長い付き合いなのがChatGPTです。私は親しみを込めて「茶先生」と呼んでいます。ブログ記事のアイデア出しから、構成の相談、最終的なフィードバックまで、茶先生には本当にお世話になってきました。
そんなある日、ふと思いました。
「そういえば、GitHub Copilotでも記事改善できるのでは?」
VS Codeでコードを書く際にはいつもCopilotに頼っているのに、同じVS CodeでMarkdownファイルを編集するときに活用していないのはもったいない。そう気づいてから、GitHub Copilotを使った記事改善を始めました。
この記事では、茶先生とGitHub Copilotを使い分けながら、8記事を改善してきた実践記録をお届けします。
ワークフロー全体像
🔵 事前準備: 記事執筆とChatGPTによる初期フィードバック
🟢 GitHub Copilot活用: リポジトリ全体の文脈を理解した改善
🟣 完成: 段階的な修正とレビュー
これまでのワークフロー:茶先生との記事改善
まず、GitHub Copilotを使う前のワークフローを紹介します。
茶先生(ChatGPT)の役割
- 記事のアイデア出し: 「こんなテーマで書きたいんだけど」と相談
- 構成のアドバイス: 「この順番で書くと読みやすいよ」と提案
- 初期フィードバック: スマホからNote記事のリンクを貼って、アイデア段階での方向性をチェック
茶先生からのフィードバックは、専用のfeedbackフォルダに保存していました。
blogText/
├── Tech/
│ ├── feedback/
│ │ ├── スマホ2台持ち生活をしてみた_feedback.md
│ │ └── thrillDrive_feedback.md
├── Other/
│ ├── feedback/
│ │ ├── 10時に寝る生活_feedback.md
│ │ ├── 東京歩けばVtuberに当たる_feedback.md
│ │ └── 料理とプログラミング_feedback.md
└── oshikatsu/
└── feedback/
├── カバー聖地巡礼_feedback.md
├── 誹謗中傷_feedback.md
└── TOEIC_feedback.md
これまでに8記事のフィードバックを蓄積してきました。
具体的な改善例
茶先生からのフィードバックで改善した記事の例を紹介します。
「夜10時に寝る生活を1週間してみた」
- 改善前: 個人的な体験談のみ
- 改善後: 7つの研究論文を引用し、科学的メカニズムを追加
- 評価: A+ ★★★★★
- Note記事: https://note.com/j____takumi/n/nd8fdb7829af9
「聖地巡礼記:ホロライブと歩く三田〜東京タワー散歩」
- 改善前: シンプルな訪問記
- 改善後: 建築情報、アクセス情報、マナー注意点を追加
- 評価: 5.0/5 ⭐⭐⭐⭐⭐(公開推奨レベル)
- Note記事: https://note.com/j____takumi/n/n168ef4079059
「スマホ2台持ち生活をしてみた」
- フィードバック回数: 4回の定期レビュー
- 主な改善: 1日のルーティン追加、向き不向きの明確化
- 完成度: 90%(即公開可能)
- Note記事: https://note.com/j____takumi/n/n92fd0810f934
「東京歩けばVtuberに当たる」
茶先生のフィードバックは本当に的確で、記事の質が大きく向上しました。
Zenn記事の改善例
Note記事だけでなく、Zenn記事でもGitHub Copilotを活用したフィードバックを受けています。
「コードレビューが苦手でも大丈夫!Copilotで変更概要作成、NotebookLMで"ながら学習"」
- Zenn記事: https://zenn.dev/jtakumi/articles/get_git_change_log_overview_with_github_copilot
- 公開状況: 公開済み(published: true)
-
主な改善点:
- Mermaid図によるワークフロー可視化
- 具体的なgitコマンド例の追加
- Copilot生成の詳細な概要例
- Spotify音声サンプルへのリンク追加
- ネガティブな内容の削除(Claude凍結、過度なAI不安論)
- フィードバック日: 2025年11月17日
新しい発見:GitHub Copilotでできること
なぜGitHub Copilotを使おうと思ったのか
茶先生との記事改善は順調でしたが、ある日気づきました。
「VS CodeでMarkdownファイルを編集しているのに、Copilotを活用していない」
コードを書くときはCopilotに頼りっぱなしなのに、記事執筆では使っていない。これはもったいない。
そこで、試しにCopilotに「このリポジトリのフィードバックファイルを分析して」と依頼してみたところ、驚くべき結果が返ってきました。
ChatGPTだけでは不便だった点
茶先生は素晴らしいパートナーですが、実際の作業で不便を感じていた点もありました。
-
ファイルを1つずつアップロードする手間
- 複数記事のフィードバックを確認する際、毎回ファイルをアップロード
- リポジトリ全体の文脈を把握してもらうのが難しい
-
フィードバック履歴を手動で管理する負担
- 過去のフィードバックを探すのに時間がかかる
- 改善パターンの抽出も手作業
-
Git履歴を手動で調べる時間
- どの記事をいつ修正したかを確認するのが面倒
- 修正の経緯を振り返るのに手間がかかる
なぜ「移行」ではなく「併用」を選んだのか
GitHub Copilotを使い始めても、茶先生との関係は変わりません。両方を使い分けている理由は2つあります。
-
スマホからより手軽にプランニングしたい
- 移動中や寝る前に、スマホから茶先生に相談
- アイデア出しや構成の相談はスマホの方が気軽
- VS Codeを開かなくても、いつでもどこでも記事について考えられる
-
トークン使用料を分散させたい
- ChatGPTとGitHub Copilot、それぞれに月額料金を払っている
- 片方に集中させると、使用量の上限に達する可能性がある
- 用途に応じて使い分けることで、コストを最適化
茶先生には「何を書くか」を相談し、Copilotには「どう書くか」を手伝ってもらう。この役割分担が、今の私にとって最適なワークフローです。
GitHub Copilotの強み
実際に使ってみて分かった、GitHub Copilotの強みは以下の通りです。
-
リポジトリ全体の文脈理解
- 過去のフィードバックパターンを参照した提案
- 他の記事との一貫性を保った改善案
-
ファイル操作の効率化
- 複数ファイルの一括読み込みと分析
- Git履歴との統合
-
構造化データの生成
- 統計データの自動集計
- フィードバック履歴の整理
-
VS Code統合
- エディタ上で完結する改善プロセス
- リアルタイムでの提案
ChatGPTとの違い
| 観点 | ChatGPT(茶先生) | GitHub Copilot |
|---|---|---|
| 得意分野 | 深い対話、感情的サポート | コード/ファイル操作、構造化 |
| 使用場面 | アイデア出し、構成相談 | リポジトリ管理、一括分析 |
| インターフェース | Webブラウザ | VS Code統合 |
| 文脈理解 | 会話履歴 | リポジトリ全体 |
実践:GitHub Copilotとの記事改善プロセス
実際にGitHub Copilotを使って記事を改善した流れを紹介します。
ステップ0: フィードバックファイルの作成
まず、記事のフィードバックを得るために、以下のようなプロンプトをGitHub Copilotに投げます。
この記事をさらに読み応えがあるものにしたい。以下の内容をまとめたmarkdownを作成せよ。
- 現状の記事の構成
- 誤字脱字
- さらに深掘りした方が良いもの
- 追加した方が良い項目
- 削除しても良いと思われる項目
- 似たような内容を扱っている他の記事と比較した時の改善点(比較元の記事のリンクも添付する)
これにより、構造化されたフィードバックファイルがfeedbackフォルダに生成されます。
ステップ1: リポジトリ状況の把握
まず、Copilotに以下のように依頼しました。
「feedbackフォルダの一覧を取得して、どんなフィードバックがあるか教えて」
すると、Copilotは自動的に:
- 8記事のフィードバックファイルを発見
- カテゴリ別に整理(Tech: 2記事、Other: 3記事、oshikatsu: 3記事)
- 各フィードバックの傾向を分析
ステップ2: 改善パターンの抽出
次に、Copilotは過去のフィードバックから共通パターンを抽出しました。
効果的だった改善パターン:
-
科学的根拠の追加 → 信頼性UP
- 研究論文の引用
- 統計データの活用
- 専門機関の情報参照
-
具体例・実例の追加 → 説得力UP
- 1日のルーティン
- 失敗談と対策
- ビフォー・アフター
-
読者視点の追加 → 実用性UP
- 向いている人/向いていない人
- よくある悩みへの対策
- 段階的な実践方法
-
構造化と視覚化 → 読みやすさUP
- セクション分けの明確化
- 箇条書きの活用
- 表やチェックリストの追加
ステップ3: 具体的な改善提案
例えば、「10時に寝る生活」の記事では、Copilotは以下のような提案をしてくれました。
提案内容:
- 「午後の眠気のメカニズム(Post-lunch dip)を科学的に説明すると良い」
- 「PubMed、Harvard Health、Stanford Medicineなどの研究を引用しましょう」
- 「失敗例と対策のセクションを追加すると実用性が上がります」
ステップ4: ファイル管理の自動化
さらに、Copilotは自動的に:
- 改善履歴をまとめた
overview_of_feedback.mdを生成 - 統計データを集計(完成度90%以上: 2記事、5.0/5評価: 1記事)
- Git履歴との照合
これにより、どの記事をいつ改善したのかが一目瞭然になりました。
実際の改善事例:詳細レポート
事例1: 「夜10時に寝る生活を1週間してみた」
改善前の状態:
お昼ご飯以降にやってくる異常な眠気だった。
改善後:
### なぜ午後の眠気が起きるのか?そのメカニズム
実は、午後の眠気には明確な理由がある。
人間の体内時計は、昼食後の14時〜16時頃に自然と眠気が強くなるように
プログラムされている。これは**post-lunch dip(アフタヌーンディップ)**
と呼ばれる生理現象だ。
興味深いことに、この現象は**昼食の有無に関係なく、体内時計のリズム
として起こる**ことが睡眠研究で報告されている。
追加された科学的根拠:
- PubMed: Post-lunch dip研究
- Harvard Health: ブルーライトとメラトニン研究
- Stanford Medicine: 深夜型生活とメンタルヘルス研究
- 合計7つの研究論文を引用
Git履歴(2025年11月20日):
b2e1c13 - write mecanithumn of asleep
b575b27 - Q&A
3708a5b - format outlines
0327365 - attach research essay
8c36ffd - failed case
9c283c3 - how to spend late day
1日で6回のコミット。段階的に科学的根拠、Q&A、失敗例を追加していきました。
最終評価: A+ ★★★★★
事例2: 「聖地巡礼記:ホロライブと歩く三田〜東京タワー散歩」
改善前:
この企業の成長スピードの速さです。
改善後:
この瞬間、私は少し不思議な感覚に包まれていました。平日は会社員として
働き、週末は推しのライブに参戦するオタク。その両方の視点で、この三田
ガーデンタワーを見上げているのです。
ビジネスパーソンとしては「これほどの成長スピードで一等地のオフィス
ビルに入居できるのか」と驚嘆し、ファンとしては「推しが所属する会社が
こんなに立派になったのか」と誇らしく感じる。
この二つの感情が混ざり合う体験は、なかなか味わえるものではありません。
追加された情報:
- 建築情報: 三田ガーデンタワーの歴史(竣工年: 2006年、地上30階・地下2階)
- 設計・施工: 日建設計、鹿島建設
- 実用情報: アクセス、持ち物、服装アドバイス
- 注意点: 撮影時のマナー5項目
Git履歴(2025年11月21-22日):
8a91449 - otaku and business person
540f9f0 - visit cover office
243c6b2 - write street sounds
6716c07 - mita garden tower history
bae7693 - write attentions
bba667d - delete some parts
最終評価: ⭐⭐⭐⭐⭐(5.0/5)公開強く推奨
事例3: 「スマホ2台持ち生活をしてみた」
追加されたセクション:
- eSIM × 2回線構成の詳細説明
- 「ある日の使い分け〜実際のルーティン〜」
- デメリットと具体的な対策(5項目)
- 向いている人・向いていない人の基準
Git履歴(2025年11月15-17日):
cbac89c - delete on work
1053fb8 - various system
477b138 - advance Android and iOS
0ad330c - android and iOS
cf84f2b - enhance routine work
5d0ec06 - write routine
a18c5a6 - two smartphone check list
65213df - fix use case part
3日間で11回のコミット。最も丁寧に段階的改善を行った記事です。
最終完成度: 90%(即公開可能レベル)
事例4: 「コードレビューが苦手でも大丈夫!Copilotで変更概要作成、NotebookLMで"ながら学習"」
改善前の状態:
職場に GitHub Copilot がやってきてから数ヶ月。コード生成だけでなく、
**コードレビューの"下準備"**にも活かしています。
今回は、苦手意識があったコードレビューを
**「AIで知識インプット」→「AIで変更概要の要約」** という流れで楽にする
実践手順を紹介します。
(ワークフロー図なし)
改善後:
## ワークフロー全体像
(Mermaid図によるワークフロー可視化)
graph TB
A[レビュー対象の技術を確認] --> B[技術資料を収集]
B --> C[Claudeで要点レポート作成]
C --> D[NotebookLMで音声生成]
...
**フロー説明:**
- 🔵 事前準備(A→E):AIで技術知識をインプット
- 🟡 音声学習(E):通勤中などスキマ時間を活用
- 🟢 概要作成(F→I):Copilotで変更内容を自動要約
- 🟣 レビュー(J):準備万端でコードレビューに臨む
追加された実践的情報:
- ワークフロー全体像: Mermaid図による視覚化で、記事の全体像が一目で理解できるように改善
-
具体的なgitコマンド例: Copilotが内部で実行するコマンドを明示
-
git log --oneline -20(最近の履歴の把握) -
git log --format="%h %s" --reverse origin/main..HEAD(対象範囲の一覧) -
git diff --stat origin/main...HEAD(変更ファイルと規模感) -
git diff origin/main...HEAD --name-only(変更ファイルの列挙) -
git show --stat <commit>(個別コミットの詳細)
-
- Copilot生成の詳細な概要例: 実際の出力例を具体的に記載
- Spotify音声サンプル: NotebookLMで生成した音声概要へのリンク追加
削除されたネガティブコンテンツ:
- 「余談: Claudeアカウントが凍結されました」セクション: 記事の主題から逸脱する内容を削除
- 「きっかけ(社内スレの雑談から)」セクション: 簡潔化のため削除
- 過度なAI不安論の削除(記事をポジティブな内容に改善)
Git履歴(2025年11月17日):
3afe6f4 - add flow image
3caa93a - fix git commands
7407bb9 - failed case
d5f8453 - delete bordar
1日で4回のコミット。ワークフロー図の追加、gitコマンドの修正、失敗例の追加、不要なセクションの削除を段階的に実施しました。
特筆すべき改善点:
-
再現性の向上: gitコマンドの形式を修正(
origin/feature...main..HEAD→origin/main..HEAD)により、実際に動作するコマンド例になった - 透明性の確保: Copilotが内部で何をしているかが理解できるようになった
- 視覚化による理解促進: Mermaid図により、複雑なワークフローが一目で把握できるようになった
公開状況: 公開済み(published: true)
フィードバック日: 2025年11月17日
最終評価: 公開済み・実践的な内容として高評価
AIツールの使い分け戦略
現在、私は以下のように3つのAIツールを使い分けています。
| ツール | 得意分野 | 使用場面 | 月額 |
|---|---|---|---|
| ChatGPT(茶先生) | 深い対話、感情的サポート、初期フィードバック | アイデア出し、構成相談、読者視点のフィードバック | 約3,000円 |
| GitHub Copilot | コード/ファイル操作、構造化データ処理 | リポジトリ管理、複数記事の一括分析、自動化 | 約1,500円 |
| Gemini | Google連携、スケジュール管理 | 公開スケジュール管理、リマインダー設定 | 約3,000円 |
なぜ複数のAIを使うのか
それぞれのAIには得意・不得意があります。
- ChatGPT: 対話が得意。「この記事、なんか物足りない気がするんだけど」みたいな曖昧な相談にも親身に答えてくれる
- GitHub Copilot: ファイル操作が得意。「このフォルダ内の記事を全部分析して」が一瞬でできる
- Gemini: 現時点では記事改善にはほとんど使っていませんが、今後Google連携機能を活用する予定です
1つのAIだけに頼るのではなく、場面に応じて使い分けることで、より効率的に記事を改善できています。
8記事改善から学んだこと
記事完成度の基準
フィードバックを重ねる中で、独自の完成度基準ができました。
- 90%以上: 即公開可能
- 80-90%: ほぼ完成、軽微な改善で公開可能
- 70-80%: 主要な改善が必要
- 70%未満: 大幅な見直しが必要
現在の達成状況:
- 90%以上: 2記事(スマホ2台持ち、10時に寝る生活)
- 5.0/5評価: 1記事(カバー聖地巡礼)
修正のパターン
Git履歴を分析すると、修正には明確なパターンがありました。
即座の対応: フィードバック受領後1-3日以内に集中的に修正
- 「10時に寝る生活」: 2025年11月20日に6回のコミット(1日)
- 「東京歩けばVtuber」: 2025年11月22日に8回のコミット(1日)
- 「カバー聖地巡礼」: 2025年11月21-22日に7回のコミット(2日)
- 「スマホ2台持ち」: 2025年11月15-17日に11回のコミット(3日)
段階的な修正: 1つの改善項目ごとにコミット
- "write mecanithumn of asleep" - メカニズム説明追加
- "mita garden tower history" - 建築情報追加
- "otaku and business person" - 個人的視点の深掘り
このように、丁寧に段階を踏むことで、記事の質が着実に向上しました。
GitHub Copilotならではの発見
リポジトリ全体の文脈理解
ChatGPTとの最大の違いは、「リポジトリ全体を把握している」点です。
例えば、Copilotに「このリポジトリの記事改善の傾向を教えて」と聞くと、
- 過去8記事のフィードバックパターンを自動分析
- 「科学的根拠の追加」が効果的だったことを発見
- 「具体例の追加」で読みやすさが向上した記事を特定
- 完成度90%以上の記事の共通点を抽出
このような俯瞰的な分析は、1記事ずつ対話するChatGPTでは難しいことです。
ファイル操作の効率化
VS Codeと統合されているため、ファイル操作が非常にスムーズです。
「feedbackフォルダ内のファイルを全部読み込んで、
統計情報をまとめたoverviewファイルを作って」
この一言で、Copilotは:
- feedbackフォルダ内の8ファイルを読み込み
- カテゴリ別、評価別に集計
-
overview_of_feedback.mdを自動生成
こういった作業を手動でやると30分はかかりますが、Copilotなら数秒です。
Git履歴との統合
記事の修正履歴をGit管理していたおかげで、Copilotは:
- どの記事をいつ修正したか
- どのフィードバックをどう反映したか
- 修正の頻度とパターン
これらを自動的に分析してくれました。
実践で分かった注意点とベストプラクティス
GitHub Copilotを使い込む中で、いくつか重要な注意点が見えてきました。
1. 修正対象を明示的に指定する
Copilotに記事の改善を依頼する際、「どのファイルを修正してほしいのか」を明確に伝えることが重要です。
悪い例:
「この記事の誤字を修正して」
良い例:
「articles/use_copilot_edit_articles.md の誤字を修正して。
feedbackファイルには触れないで」
なぜ重要か:
リポジトリ全体を把握しているCopilotは、意図しないファイル(フィードバックファイルやメモなど)を変更してしまう可能性があります。
2. コンテキストとして事前にファイルを開く
より確実な修正のためには、修正対象のファイルを事前にエディタで開いておくと効果的です。
実践例:
- VS Codeで
articles/use_copilot_edit_articles.mdを開く - Copilotに「現在開いているファイルの〇〇セクションを改善して」と依頼
- Copilotが正確に対象ファイルを認識して修正
これにより、「本文を修正してほしいのに、フィードバックファイルが変更された」といった事故を防げます。
3. GitHub Copilotの制約事項を理解する
実際に使ってみて分かった、GitHub Copilotの制約事項もあります。
制約1: 一度に処理できる情報量に限界がある
- 超長文の記事(1万文字以上)の場合、セクションごとに分けて依頼する方が確実
- 複数記事を同時に改善する際は、1-2記事ずつ処理する
制約2: リアルタイムの情報は取得できない
- Web検索機能もありますが、過信は禁物です
- 最新のトレンド情報やニュースは参照できない場合がある
- 外部リンクの有効性チェックは手動で行う必要がある
制約3: 主観的な判断は人間が最終確認すべき
- 「この表現は読者に刺さるか」といった感覚的な部分
- ブランディングやトーンの統一性
- 削除提案されたセクションが本当に不要かどうか
これらの制約を理解した上で、AIと人間の役割分担を意識することが大切です。
実際の数値データ
フィードバックを受けた記事の統計
- 合計記事数: 9記事
-
プラットフォーム別内訳:
- Note記事: 8記事
- Zenn記事: 1記事
-
Note記事のカテゴリ別内訳:
- Tech(技術系): 2記事
- Other(その他): 3記事
- oshikatsu(推し活): 3記事
修正実施状況
-
修正確認済み: 5記事(55.6%)
- 夜10時に寝る生活を1週間続けた感想(Note - Other)
- 三田〜東京タワーまでの散歩(Note - oshikatsu)
- 東京歩けばVtuberに当たる(Note - Other)
- スマホ2台持ち生活をしてみた(Note - Tech)
- コードレビューが苦手でも大丈夫!(Zenn - 公開済み)
修正の規模
- 平均コミット数: 約8回(6-11回)
- 追加された科学的根拠: 最大7つの研究論文
- 追加されたセクション: 最大5つの新規セクション
- 修正にかかった期間: 平均1-2日
改善の成果
- 完成度90%以上: 2記事(スマホ2台持ち、10時に寝る生活)
- 5.0/5評価: 1記事(カバー聖地巡礼)
- 科学的根拠の追加: 7つの研究論文引用(10時に寝る生活)
今後の展望
まだ修正していない記事への対応
現在、4記事のフィードバックが未反映のまま残っています。
- Thrill Drive(Tech)
- 料理とプログラミング(Other)
- TOEIC(oshikatsu)
- 誹謗中傷(oshikatsu)
今後は、週に1-2記事のペースで修正を進めていく予定です。
新しいチャレンジ
- 公開後の効果測定: PV数、滞在時間、反応の分析
- 読者フィードバックの収集: コメントやSNS反応の活用
- AI活用パターンの拡充: より効率的なワークフローの構築
まとめ:AIと共に成長するブログ執筆
この記事では、ChatGPTとGitHub Copilotを使い分けながら、8記事を改善してきた実践記録をお届けしました。
学んだこと
- 1つのAIに依存しない: それぞれの強みを活かした使い分けが重要
- フィードバックを記録する: 過去の改善パターンが次の記事に活きる
- 段階的に改善する: 一度に完璧を目指さず、少しずつ良くしていく
- プロセス自体を楽しむ: AI活用は効率化だけでなく、発見の喜びもある
AIツール活用の本質
ここ数ヶ月Copilotを業務で使ってみて、心境が変わりました。
AIは「仕事を奪うもの」ではなく、「武器」として活用できるものだと実感しています。
ブログ執筆においても同じです。AIを使うことで:
- より質の高い記事が書けるようになった
- 執筆時間が短縮された
- 新しい視点を得られるようになった
AIと人間が協力することで、より良いコンテンツが生まれる。そう信じています。
読者へのメッセージ
あなたもAIをブログ執筆のパートナーにしてみませんか?
最初は月1,500円のGitHub Copilotだけでも十分です。VS Codeでブログを書いているなら、すぐに試せます。
この記事が、あなたのAI活用の一歩になれば嬉しいです。
この記事があなたの役に立ったら、ぜひ「いいね」やコメントで教えてください。あなたのAI活用体験も聞かせていただけると嬉しいです。
関連記事
Copilotが職場に入ってきて試行錯誤した記録。
そこから、コードレビューに活用していったお話。
Discussion