MCPサーバをハブに、ナレッジマネジメントのフォーメーションを考える

に公開

はじめに

AIと共に仕事をするのが当たり前になった今、便利なツールが増えすぎて、自分の知識(ナレッジ)をどこにどうやって蓄積し、活用すればいいのか、頭が拡散してしまいました。

Cursorを司令塔として、点在するナレッジソースを連携させ、AIを自分の文脈を理解するパートナーに育て、具体的なワークフローを構築したい。どう思考を整理したか、そのプロセスと結論を共有します。

本質的な問い:本当にやりたいこと

ツール選びの検討に入る前に、根本的な目的を再確認。

「Cursorという日々の作業場所から、自分が蓄積・信頼しているナレッジソースにシームレスにアクセスし、AIエージェントをパートナーとして活用しながら、業務の質と速度を劇的に向上させたい」

この目的を達成するためには、ナレッジマネジメントを3つのフェーズに分けて考えるのが効果的。

  1. インプット: いかに効率よく情報を収集し、一次処理するか。
  2. ストック: 収集した情報を、いかに価値ある「自分の知識」として育て、構造化するか。
  3. アウトプット: ストックした知識を、いかにAIが活用しやすい形で提供し、業務に活かすか。

この「情報の流れ」に沿って各ツールの役割を決めることで、頭をすっきりしました。

結論:最強のハイブリッドワークフローを組む

例えば、NotionかNotebookLMかと、ツールを選定するのではなく、結論は両方使うです。単一の完璧なツールを探すのではなく、各ツールの長所を活かした「ハイブリッドワークフロー」を構築する。

先に、完成系の形を示します。

このワークフローの技術的な要となるのが、Cursorに自前のナレッジソースを接続するModelContextProtocol(MCP)サーバです。これにより、NotionやGitHubといったバラバラのツールを、Cursor上から@コマンドという統一されたインターフェースで扱えるようになります。

以下に、具体的なモデルを紹介します。

【インプット担当】Google NotebookLM:超高速リサーチアシスタント

  • 役割: あなたの「短期集中リサーチアシスタント」。
  • 使い方:
    • 気になる技術記事のURL、参考論文のPDF、仕様書のドラフトなどを、躊躇なく放り込みます
    • AIに「この記事の要点を3行で教えて」「この2つの技術のメリット・デメリットを比較して」などと質問し、情報の核心を高速でキャッチアップします。
    • ポイントは「使い捨て」と割り切ること。 ここは、あくまで情報の一次処理と概要把握の場です。恒久的な保管場所ではありません。

【ストック担当】Notion / Obsidian:「第二の脳」を育てる庭

  • 役割: あなたの「知識の保管庫」であり、「思考を育てる庭」。AIが参照するメインの知識ソースです。
  • 使い方:
    • NotebookLMで得た知見や、日々の業務での気づき、会議の議事録など、「これは将来も参照する価値がある」と判断した情報だけを、必ず自分の言葉で再構成してNotionに記録します。
    • Notionのデータベース機能やリレーションを駆使して、知識を体系的に構造化しましょう。例えば、「データガバナンス」「データ品質」「ETLツール」といったカテゴリでページを分け、関連プロジェクトとリンクさせます。
    • AIを賢くする秘訣は、この「ストック」の質にあります。 構造化され、単なるコピペじゃないあなたの文脈が反映された知識は、AIにとって最高の教科書となります。(Obsidianのグラフビューやリンク機能も、この役割に適していそう。)

【業務文脈担当】Slack / GitHub:リアルタイムな「生きた情報源」

  • 役割: 体系化された知識に「生きた業務文脈」を与える情報源。
  • 使い方:
    • これらは意図的にナレッジを貯める場所ではありません。しかし、Cursorの@機能(MCPサーバ経由)で連携することで、AIは過去の議論やコードの変更履歴を理解できるようになります。
    • 体系化された知識(Notion)と、リアルタイムの業務文脈(Slack/GitHub)を組み合わせることで、より的確なサポートが可能になります。

【アウトプット担当】Cursor:すべてを束ねる「コックピット」

  • 役割: 全てのナレッジソースとAIを結集させる「統合開発・思考環境」。
  • 使い方:
    • @Notion@GitHub などのコマンド(MCPサーバで設定したもの)を使い、AIとの対話に必要な知識ソースをその場でコンテキストに含めます。
    • 具体的な指示の例:
      @Notion の「データカタログ設計原則」のページを参考にして、このDB設計に対するレビューポイントを5つ挙げてください。
      
      @GitHub のリポジトリにある`README.md`と、@Slack の #proj-data-pipeline チャンネルの直近の議論を要約して、この機能の仕様ドラフトをMarkdownで書いて。
      
      私が @Notion に書いた「dbtベストプラクティス」のページに基づいて、このSQLをリファクタリングしてほしい。
      

おわりに

思考が拡散していましたが、これでひとまずスッキリ整理できました。

  • 悩むな、連携させよ。 ツールは競合ではなくパートナー。
  • 情報の「流れ」で役割を分ける。
    • インプット(高速化): Google NotebookLM
    • ストック(体系化): Notion / Obsidian
    • 活用(統合): MCPサーバをハブとして、 Cursorにすべてを集約。
  • AIを育てる鍵は「ストック」の質。 自分の言葉で構造化された知識が、AIを凡庸なチャットボットから、有能なパートナーへと進化させる。

この小さなサイクルを試して改良するために、

  1. テーマを決める: リサーチしたいテーマを1つ決める(例: "Data Mesh")。
  2. NotebookLMでリサーチ: 関連URLやPDFを投入し、AIと対話して概要を掴む。
  3. Notionに清書: そこで得た本質を、自分の言葉でNotionの1ページにまとめる。
  4. Cursorで活用: 後日、そのテーマに関連する作業で、@Notionでそのページを呼び出し、AIに仕事をさせてみる。

このサイクルを一度体験したことで、AIが自分の知識と文脈を理解し、共に成長していける感覚を持てました。もちろん、これが唯一の正解ではありません。最近、Notionへの清書ではなく、Cursor内に直接Markdownファイルとしてストックする形も試しています。

大切なのは、完璧なフローを追い求めるのではなく、自分に合わせて常に改良し続けることですね。この記事が、皆さんがご自身の「最強のワークフロー」を見つけるための、一つのヒントになれば幸いです!

Discussion