自身の情報分析力を上げるための仕組み化プロジェクト
自身の"情報分析力"を上げるための仕組み化プロジェクト
はじめに
私の尊敬している識者の一人に、小泉悠氏がいます。
ロシアの軍事・安全保障の専門家で、ロシアがウクライナを攻めて以降は、TVやネットで引っ張りダコなので、見たことがある方も多いと思います。
もちろん、軍事・安全保障の知識がすごいのは間違いないのですが、それ以上にそれらの情報を取得し・分析し・伝えるというこの力を尊敬していました。
その小泉悠氏の、情報分析についての著書が昨年後半に出たので、読んでみたのですが、普段の論説同様、とてもまとまっていました。
その中でも、印象に残ったのは次のような点です。
- 大量の情報が容易に入手できる現代だからこそ、その情報の質を吟味する能力が不可欠
- そして、単に情報を収集するだけでは不十分であり、収集した情報を批判的に評価し、信頼性を判断する能力が求められる
そこで、私なりに吟味した情報を自分の知識体系に組み込み、効果的にインプット・アウトプットできる仕組みを構築できないかと考えていました。
(ついでに、最近はやりのMCPの学習もできたらなぁと。)
0.諸々用いたツール
Notion
Notionは、「クロスプラットフォームのフリーミアムのメモ取りウェブアプリ」と定義されていますが、個人的にはテキスト形式が扱いやすいデータベースという認識です。
データベースに入れたものを、Kanban形式やギャラリー形式にして、タスク管理やナレッジ管理に以前から使っていました。
Obsidian
Obsidianは、マークダウン方式が使いやすいエディタです。
様々なプラグインがあり、Marpでプレゼンテーションしたり、PandocでKindle出版したりと、様々な拡張ができそうだったので、比較的最近使い始めました。
次のようなページがとても参考になりました。
こっちは、まだ使いこなせていませんが、Copilotのプラグインで、生成AIを使うこともできるようです。
Claude Desktop
Claudeは、OpenAI社の競合であるAnthropicが出している生成AIです。
Claude Desktopは、それをデスクトップアプリとして操作できるものです。
Claudeは、ChatGPTに比べてプログラミングなど論理処理が得意なイメージです。
そして、Claudeが最近注目されている理由の1つがMCPです。
MCPについては、詳細は上記のページを見ていただくとして、私の簡単な理解としては、生成AIから既存の様々なサービスにアクセスして、操作できるようにするものというものです。(雑)
これが、上記のNotionと、Claudeでも準備されていて、Claude Desktopからすべてアクセスできています。
1. Notionからの情報収集・整理
1. Claude Desktop + Notion MCPを使用して、過去に読んだ本や記事などの内容を取得
2. 取得した情報をClaudeで特定の型に整理してもらう
3. 整理された情報をObsidianの一時的な保存先(Fleetingフォルダ)に保存
4. 人間(私)が手を加えて、情報の追加・削除を行う
これは、元々私がNotionを使っていたからというのもあるのですが、Notionにはそれなりに「読んだ本」やWebクリップのリストと、Kindleから貼り付けただけのハイライトがあるので、
それを元データとして活用しました。(Notionの一覧性は大好きです)
ただ、Notionでは個人的に長い文章を書くことができず(ブロックの単位が、なんか肌に合わないのか?)、最近は記事をマークダウンでObsidian上で書いていました。
それを組み合わせて、MCPを用いてNotionから持ってきた内容を、生成AIにまとめてもらったうえで、Obsidianで加工するとしています。
(ここは、ツールの好みだと思うので、全部をNotionまたは、Obsidianというパターンも全然ありだと思います)
※こんな感じで、Claude Desktopで自然言語で、Notionから検索しています。
そして、ここまでやったら、ひとまず寝かしておきます。すぐに記事や資料化することもありますが、やっぱり違うなとか、タイミングとかもありますからね。
2. ドキュメントの特定と取得
1. Obsidian MCPを使用して、記事化したい内容を含むファイルをキーワード検索する
2. Claude に対象ファイルの内容を読み込ませ、記事の素材として利用できるか判断してもらう
3. 関連するファイルも同時に検索し、記事作成の参考情報として活用する
そのタイミングになったら、このプロセスです。
次は、Obsidianから情報を呼び出して、記事化を進めます。
3. 記事内容の編集・整理
1. Claude に読み込ませた内容を元に、ブログ記事として適切な構成を提案してもらう
2. 見出しの階層、段落構成、文章の流れなどをClaude が最適化
3. Claude の提案に基づき、内容の追加・削除を行う
4. AIに記事内容をBlogの形式(例:Zenn、Qiita)に変換してもらう
この辺りは、自分向けに書いていた文章を、記事っぽくするというところなので、以前からAIにお任せすることが多かったですが、
この流れの中で、完全にプロセス化された感じがあります。
4. 記事を保存・GitHubにPush・記事公開
1. Obsidian MCPを使用して、編集した記事を恒久的な保存先(Permanentフォルダ)に保存
2. 保存した記事をGitHubにPush(GitHub MCP)
3. 記事を公開
記事の公開については、GitHubを用いて行う方法を下記を参考に行っています。
この方法自体は、以前から知っていたのですが、どうもGitHubの経験が薄く、避けていたところがありました。
ただ、これも、GitHubをMCPから使うことができるので、今回デビューしてみました。
まとめ
このフローを活用することで、Notionでの情報収集からObsidianでのナレッジベース構築、そしてZennやQiita, noteで公開するブログ記事への変換プロセス全体をMCPとAIの力で効率化できるかと思っています。
これまで、どうしても情報を集める → 手元で動かしてみるというところで満足してしまうことが多くありました。
ただ、最初に述べた、小泉悠氏が本の中で、「書くことで収集ボックスに情報が戻ってくる」という言い方でアウトプットの重要性を書かれていたこともあり、やはり、もっとアウトプットしていきたいなと考えていた折に、ちょうどいいツールが見つかったという感じです。
これによって、果たして記事の量が増えるのか・質が上がるのかは、未知数ですが、自分なりに情報管理というものが1つ形になったということもあり、まとめさせていただきました。
Discussion