📑

AI系の情報収集手法を紹介(ビジネス・開発・研究)【2025年版】

2025/01/15に公開

本記事ではAI系を中心とした「ビジネス」、「開発・技術」、「研究論文」に関する情報収集について、どのようなサイトやニュースレターを活用しているのか、そして私が実際どのように「AI-Agent(もどき)」を使用して収集・閲覧を効率化しているのかを紹介します。


本記事は4つの内容で構成されています。

  • 最初に情報収集源に利用しているサイトをカテゴリごとに紹介します
  • 次に購読しているニュースレターを紹介します
  • 続いて、効率的な情報収集・閲覧手法を紹介します
  • 最後に、執筆者が実際どのように「AI-Agent(もどき)」を使用して、情報収集を効率化しているのかを紹介します

(執筆:小川 雄太郎)


本記事の目次です

  1. 情報収集先の紹介(サイト系)
    1.1 カテゴリ:ビジネス
    1.2 カテゴリ:開発・技術
    1.3 カテゴリ:研究論文

  2. 情報収集源の紹介(ニュースレター系)
    2.1 ニュースレター(毎日)
    2.2 ニュースレター(週単位)

  3. 効率的な情報収集・閲覧手法
    3.1 サイト系(RSSリーダー)
    3.2 ニュースレター・メール系(Gmail設定の最適化)

  4. 執筆者の毎朝チェック(AI-Agentもどき HARO)
    4.1 実際の情報収集とチェックの様子
    4.2 Agent構築技術の概要

1. 情報収集源の紹介(サイト系)

1.1 カテゴリ:ビジネス


【毎日単位】

(1) ビジネス系の情報収集について紹介します。まずは、「日経ビジネス電子版」 の新着記事を確認します。

link: https://business.nikkei.com/latest/?i_cid=nbpnb_latest


(2) 続いて、「Business Insider」 の「ビジネス」、「テックニュース」、「サイエンス」、「スタートアップ」を確認します。

link: https://www.businessinsider.jp/business/
link: https://www.businessinsider.jp/tech-news/
link: https://www.businessinsider.jp/science/
link: https://www.businessinsider.jp/tag/start-up/


(3) 少しIT系の情報源に移ります。「日経XTECH(クロステック)」 の「IT(情報技術)」の新着記事をチェックします。

link: https://xtech.nikkei.com/top/it/


(4) 続いて、「ITmedia AI+」 の新着記事をチェックします。

link: https://www.itmedia.co.jp/aiplus/


以上が毎日単位でチェックしているビジネス系のサイトです。


【週単位】

情報収集にはあまり神経質にならないように心がけています。

朝から忙しくて、情報収集・確認ができなかった日があったとしても、とくに気にしません。

とはいえ「逃した情報」のうち重要そうな内容を後から収集できるように「仕組み化」しておくことは大切です。

私の場合は、「日経ビジネス(紙版)」(週刊)「日経コンピュータ(紙版)」(隔週発行) を購読し、移動時間などに読んでいます。

日経ビジネス link: https://www.nikkeibpm.co.jp/item/nb/661/index.html
特設サイト link: https://www.nikkeibpm.co.jp/cp/e1nb/

日経コンピュータ link: https://www.nikkeibpm.co.jp/item/nc/568/index.html
特設サイト link: https://www.nikkeibpm.co.jp/cp/e1nxt/



1.2 カテゴリ:開発・技術

続いてはAI系、およびもっと広く「IT系」の開発・技術に関する情報収集源について解説します。

毎日単位でチェックしているサイトになります。


(5) 最初は、はてなブックマークの「IT系(テクノロジー)」と「特集 AI・機械学習」 です。
ビジネス寄りの記事も混ざってきますが、開発・技術系のブログ記事が多いです。

なお「特集 AI・機械学習」のページだけでなく、「IT系(テクノロジー)」ページも確認する理由は、執筆者個人としては、「AI技術はIT技術の土台の上にあるものであり、IT系(とくにクラウド系)をおろそかにするのは良くない」と考えているからです。

できる限りにおいて、AIだけではなく、IT技術系の情報収集も実施します。

link: https://b.hatena.ne.jp/hotentry/it
link: https://b.hatena.ne.jp/entrylist/it/AI・機械学習


(6) もう少し実装寄りの情報・ブログ記事の収集先として、 「Zennのトピック:機械学習、AI、生成AI、DeepLearning、LLM、NLP、Python」 をチェックします。

また、クラウド系の情報収集のために、「トピック:Google Cloud」 の記事もチェックします。

link: https://zenn.dev/topics/機械学習
link: https://zenn.dev/topics/ai
link: https://zenn.dev/topics/生成ai
link: https://zenn.dev/topics/deeplearning
link: https://zenn.dev/topics/llm
link: https://zenn.dev/topics/nlp
link: https://zenn.dev/topics/python
link: https://zenn.dev/topics/googlecloud


(7) クラウドベンダーの公式ブログとしては、「Google Cloud の公式ブログ」、および 「Google Cloud Japan の公式ブログ」 をチェックしています。

link: https://cloud.google.com/blog?hl=en
link: https://cloud.google.com/blog/ja


クラウド系は、自社でよく使うベンダーをチェックするのが良いでしょう。

私が所属する株式会社松尾研究所は、東京大学 松尾・岩澤研究室と伴走する組織体です。こちらがGoogleとのパートナーシップを結んだことを受けて、(私は)Google Cloudを主体的に使用しています。


(8) Google Cloud に関連するブログ記事は、Zennの記事もチェックしますが、そのトップランナーである株式会社G-gen様のブログも確認します。

link: https://blog.g-gen.co.jp


以上、AI系・IT系のビジネス寄り、開発・技術寄りの情報サイトを紹介いたしました。

続いては研究論文関連として「AI・ディープラーニング系の新着論文」の情報収集先を紹介します。


1.3 カテゴリ:研究論文

(9) 新着論文の情報収集は次章で紹介するニュースレター系がメインです。ですが毎日チェックしているサイトもあるので紹介します。

現在の私は使用していませんが、新着論文を確認するサイトの候補としてはまず、

  • Deep Learning Monitor
  • Trending Papers

が挙げられます。


私は「Trending Papers」のサイトは利用していませんが、こちらのニュースレターは毎日単位、週単位で購読し、チェックしています。詳細は次章で紹介します。

link: https://deeplearn.org/
link: https://trendingpapers.com/papers?o=pagerank_growth&pd=7 days&cc=Cited and uncited papers&c=All categories


その他の「新着論文の紹介サイト」としては、以下の2つも有名です。

  • AIModels.fyi
  • Hugging Face Daily Papers


link: https://www.aimodels.fyi/papers?search=&selectedTimeRange=thisWeek&page=1
link: https://huggingface.co/papers

私の場合、上記の4つのサイトの中でも、Twitterでも有名なAKさんが中心となって、毎日、注目論文をピックアップされている 「Hugging Face の Daily Papers」 をチェックしています。



(10) その他サイトとしては、山下裕毅(Seamless)さんが「テクノエッジ」にて連載されている、「生成AIウィークリー・生成AIクローズアップ」 をチェックしています。

link: https://www.techno-edge.net/special/557/recent/生成AIウィークリー


また、週に1度メールで届く「Qiita」のランキング記事もチェックしています。

以上、第1章では情報収集源として利用している各種サイトを、ビジネス、開発・技術、研究論文に大別して紹介しました。

次章では情報収集源として購読している「各種ニュースレター」を紹介します。

2. 情報収集源の紹介(ニュースレター系)

ニュースレター系についてはカテゴリ別ではなく、毎日届くもの、週単位で届くものに大別して紹介します。

2.1 ニュースレター(毎日)

毎日単位で購読しているニュースレターを紹介します。



[1] Medium の 「Medium daily digest」
Mediumにユーザー登録(無料)すれば、毎朝、自分の好みに合わせた新着記事の紹介メールが届きます(無料登録の場合、月内に読める記事数が制限されます)。

[2] 各種 「TLDR」 のニュースレター
Startup系、Product Management系から、AI系、IT系など各種ドメインの海外最新情報が毎日届きます(無料です)。私の場合は、

  • TLDR Tech
  • TLDR AI
  • TLDR WebDev
  • TLDR Founders

のニュースレターを読み、海外の最新情報を毎日単位でチェックしています

link: https://medium.com/
link: https://tldr.tech/newsletters


[3] 毎日の新着論文は、「Trending Papers」 のニュースレターをチェックしています。


「Trending Papers」サイトは第1章で「新着論文のまとめサイト」としても紹介しましたが、ニュースレターを購読することもでき(無料です)、毎日、その日話題になった「研究論文 Top10」をarXivのデータに基づいてお知らせしてくれます。

週末には、「今週話題になった研究論文 Top10」のニュースレターも届きます。

link: https://trendingpapers.com/newsletter


以上、私が毎日単位で読んでいるニュースレターでした。

次節では現在私が購読している、週単位で発刊されているニュースレターについて紹介します。


2.2 ニュースレター(週単位)

[4-6] 2025年は昨年よりも重要性が増すであろう「AI-Agent」系の新着論文、Bizニュースに関しては、Twitterでも有名な elvisさん「AI Agents Weekly」 を購読し、毎週チェックしています。

またelvisさんの 「Top AI Dev News」「Top ML Papers of the Week」 も併せて、購読しています。


link: https://nlp.elvissaravia.com/
link: https://nlp.elvissaravia.com/t/ai-agents
link: https://nlp.elvissaravia.com/archive


[7] その他に、AI系の研究・論文寄りのニュースレターとしては、老舗である 「Deep Learning Weekly」 を購読しています。

[8] AI関連のテックニュース、ビジネスニュースの情報収集には、「Last Week in AI」 を活用しています。

link: https://www.deeplearningweekly.com/
link: https://lastweekin.ai/


[9,10] AI関連で2025年以降重要度がさらに増すであろう、倫理系、ガイドライン系の記事チェック用の週刊ニュースレターとしては、「AI Weekly」「Import AI」 を利用しています。

link: https://aiweekly.co/
link: https://jack-clark.net/


[11-13] AI系の実装機会が多いため、Pythonに関する情報収集もニュースレターを通じて行っています(「PyCoder's Weekly」「Python Weekly」)。

また、Python Weeklyと同じ発刊元の 「Fouder Weekly」 も、新規ビジネスやSU(スタートアップ)関連(とくにアメリカを中心とした海外のSU)の情報収集先として購読しています。

link: https://pycoders.com/
link: https://www.pythonweekly.com/
link: https://www.founderweekly.com/


[14-17] AI・機械学習に偏らず広くデータサイエンス系の記事を紹介してくださるニュースレターとして、「Data Science Weekly」「Data Elixir」「Towards Data Science」 の3つをチェックしています。


また貴重な日本語のニュースレターとして、u++@upura0 さん「Weekly Kaggle News」 も毎週読ませていただいています。

ここまで紹介したニュースレターとは切り口が違うため、他では紹介されていない面白い記事が見つかります。


link: https://www.datascienceweekly.org/
link: https://dataelixir.com/
link: https://towardsdatascience.com/
link: https://weeklykagglenews.substack.com/


[18,19] データエンジニアリング系は私の本職とする分野ではないですが、最低限の話題にはついていいけるように、「Data Engineering Weekly」「The Machine Learning Engineer」 の2つを読んでいます。

link: https://www.dataengineeringweekly.com/
link: https://ethical.institute/mle.html


以上、第2章では情報収集源として利用している各種ニュースレターを紹介しました。


第1章、第2章で紹介したサイトやニュースレターはまずまずな分量です。
効率的に確認・閲覧しないと、無駄に多くの時間を消費してしまいます。

そこで次章では「効率的な情報収集・閲覧手法」を紹介します。


3. 効率的な情報収集・閲覧手法

サイトにせよ、ニュースレターにせよ、多くの時間をかけてまで情報収集しても仕方がないです。
できる限り効率的に「記事タイトル」と「概要」を確認できるように工夫したいです。

本章では、サイト系とニュースレター系それぞれについて、効率化手法を紹介します。


3.1 サイト系(RSSリーダー)

はじめに、第1章で紹介したサイト系の効率的な情報収集・閲覧手法を紹介します。
3つの手法を紹介します。


1つ目の手法は、「ブラウザのいずれかを情報収集用ブラウザと定め、ブラウザ起動時の設定で、収集源サイトを全部一括で自動的に開くように設定する」作戦 です。


この方法は手軽にすぐ実行できるという利点があります。
一方でチェックするサイトが増えると、サイトごとのレイアウトの違いによって、「記事タイトルと概要チェックのスピードが低下してしまう」という欠点があります。


2つ目の手法は、「RSSリーダー」を活用する作戦 です。

RSSリーダーを利用すれば、各サイトのレイアウトの違いが全て統一されるため、記事タイトルと概要チェックがスムーズに行えます。

一方で、有名なRSSリーダーはどれも無料利用可能ですが、一度に読み込める記事数が無料版では制限されているため、チェックするサイトが増えると有料版を使う必要があります。

また各RSSリーダーの便利機能の多くも無料版では使用できないので、本格的に活用するなら有料版になるかと思います。

なおRSSリーダーの種類としては、「Feedly」、「Inoreader」、「Feeder」などいろいろあります。

私の場合は、「Feedly」 や 「Inoreader」のカード型記事表示が、記事をチェックしやすいと感じるため、好きです。



link: https://feedly.com/
link: https://www.inoreader.com


なお各サイトのRSSフィードのURLは、各サイトのどこかしらに情報があります。また各RSSリーダーで、サイトURLを入力すれば、(基本的には)自動でRSSを登録してくれます。

念のため以下に、第1章で紹介した全サイトのRSS-URLを掲載します。

(1) 日経ビジネス電子版 最新記事
https://business.nikkei.com/rss/sns/nb.rdf

(2) Business Insider
https://www.businessinsider.jp/feed/index.xml

(3) 日経クロステック IT(情報技術)
https://xtech.nikkei.com/rss/xtech-it.rdf

(4) ITmedia AI+
https://rss.itmedia.co.jp/rss/2.0/aiplus.xml

(5) はてなブックマーク
https://b.hatena.ne.jp/hotentry/it.rss
https://b.hatena.ne.jp/q/ai?users=5&mode=rss&sort=recent
など

(6) Zennブログ
https://zenn.dev/topics/機械学習/feed
https://zenn.dev/topics/ai/feed
https://zenn.dev/topics/生成ai/feed
https://zenn.dev/topics/deeplearning/feed
https://zenn.dev/topics/llm/feed
https://zenn.dev/topics/nlp/feed
https://zenn.dev/topics/python/feed
https://zenn.dev/topics/googlecloud/feed

(7) Google Cloud の公式ブログ、Goole Cloud Japanの公式ブログ
https://cloudblog.withgoogle.com/rss/
https://cloudblog.withgoogle.com/ja/rss/

(8) 株式会社G-gen様のブログ
https://blog.g-gen.co.jp/feed

(9) Hugging Face Daily Papers
https://jamesg.blog/2024/05/23/hf-papers-rss/

(10) テクノエッジ:生成AIウィークリー・生成AIクローズアップ
https://www.techno-edge.net/rss20/index.rdf



3つ目の手法は、「自分でRSSリーダーを作ってしまう」作戦 です。

私の場合はこちらを採用しており、第4章で紹介します。

当然、「作成に手間がかかる」という欠点があります。
しかし、毎日・毎朝のように実施する情報収集・確認タスクを、可能な限り自分好みにカスタマイズしておく行為は、職業人生という数年から数十年レベルで考えたときに、非常に大きな効率化に繋がります


続いては、第2章で紹介した各種ニュースレター系(メール系)について、効率化手法を紹介します。


3.2 ニュースレター・メール系(Gmail設定の最適化)

本記事では「Gmail」でのケースを紹介します。
Outlookなどでも同じ方針で最適化できると思います。


手法としては、「1. メールをきちんと分類・整理する」、「2. 英語のニュースレターはブラウザ翻訳で読む」になります。


1. メールをきちんと分類・整理する

Gmailの場合、デフォルトではメール受信画面のタブは、「メイン」、「プロモーション」、「ソーシャル」、「新着」になっています。

そしてGmailでは、「ラベル」 を利用して、ユーザーがメールを整理できるようになっています。

私の場合、以下の図のように、「なんかいろいろ」 および、 「情報収集」 の2つのラベルを作成して使用しています。


続いてメールの分類・整理の仕方ですが、以下の4つに分類して整理しています。

No. 種別 整理
1 確認・返信が必要な通常のメール 何もしない(普通に受信ボックスへ)
2 情報収集源のニュースレター ラベル「情報収集」に格納
3 タイトル確認後、不要であれば削除するメール ラベル「なんかいろいろ」に格納
4 不要な相手や宛先からのメール 自動削除に設定。メルマガであれば購読解除


設定手順を説明します。

[1] まず Gmail画面の左下のラベルの「+」のマークをクリックして、任意のラベルを作成します

[2] ラベル「情報収集」もしくは「なんかいろいろ」に移すメールは、各メールについて、右上にあるメニューの「メールの自動振り分け設定」をクリックします

[3] 以下の図のように基本的には、「送信元」をベースとしたフィルタ作成画面が表示されるので、「フィルタを作成」ボタンをクリックします

[4] フィルタされたメールへのアクションとして、「受信トレイをスキップ(アーカイブする)」にチェックを入れ、「ラベルを付ける」にもチェックを入れます。適切なラベルを指定して、「フィルタを作成」をクリックします


以上で、今回の対象であったメールは今後、指定された「ラベル」に保管(アーカイブ)され、受信トレイには表示されなくなります。
その代わりに対応する「ラベル」にメールが格納されています。

なおフィルタアクションの設定時に「削除する」をチェックしてフィルタを作成すると、自動削除になります。


「情報収集」ラベルに集約・整理されたニュースレターの様子です。



以上の設定で整理しておき、情報収集の時間に、ラベル「情報収集」に格納された新着メールをまとめてチェックします(小まめにメールに反応して見ていると時間の無駄なので、一気にやります)。

なお上記のようなメール整理の設定を構築する際、過去のメールを遡って、フィルタとアクションの設定するのは大変です。

まずは自分が分類したい「ラベル」のみを作成しておき、新着メールが届くたびにフィルタ設定を少しずつ作成・適用するのをおすすめします。



2. 英語ニュースレターはブラウザ翻訳で読む

これは大した工夫とは呼べませんが、Gmail画面に対してブラウザ翻訳をONにしておきます。

第2章で紹介したニュースレターは大半が英語です。

一気に内容をチェックするには、(私の場合は)日本語で読む方が早いので、ブラウザ翻訳で日本語にして読みます。

ニュースレター系はブラウザ翻訳レベルで十分に内容を把握できます。

そしてざっとチェックして気になった記事やブログは英語で読みます
(すみません、ブラウザ翻訳に頼るときもあります)。


なお、Gmailでニュースレターを一気に読んでいく際、気になった記事リンクをいちいちクリックしていると、ブラウザの新しいタブでその記事が開いた後、画面がその記事に切り替わってしまいます。

これは時間の無駄になります。

Windows PC であれば、Gmailのメール画面等で、各紹介記事へのリンクを「CTRLキー」+「左クリック」すると、ブラウザの新しいタブで記事が開きますが、画面フォーカスは新しいページには移らないで、ニュースレターの元ページに残ります

画面を行ったり来たりする行為は避け、気になった記事は新規タブにどんどん開いた後、まとめて読みます。


以上、効率的な情報収集・閲覧手法(?)として、サイト系については主に「RSSの活用」、ニュースレター系については「フィルタとラベル機能を用いたメール整理」を紹介いたしました。

最終章では、私が実際どのように情報収集・閲覧を効率化しているのか、具体的にはAI-Agent(もどき)をどのように活用しているのかを紹介します。


4. 執筆者の毎朝チェック(AI-Agentもどき HARO)

私は自分で「AI-Agent(もどき)」(愛称はHAROです)を構築して、毎朝の情報収集(サイト系)などを手伝ってもらっています。


最初に動作概要、情報収集の流れを紹介します。

次にAI-Agent(もどき)をどのように設計・構築しているのか、その技術スタックの概要を解説します。


4.1 実際の情報収集とチェックの様子

本節の最後に 「実際に使用している様子の動画」 を掲載しております。

まずはどのようにAgentが動作するのかを、1ステップずつ紹介します。

(1) 最初はログイン画面です。ユーザーがGoogle OAuth 2.0を用いた「Googleログイン」をします
(2) ログイン後、「HAROの起動動画」が表示されます。その間に裏側で情報収集先サイトの最新情報の読み込み処理などをしています


(3) ChatGPTなどのUI・UXと似せた会話画面に移ります。Agentがカタカタと文字をStream処理で書き込んできます。最初は簡易な金融情報として、「日経平均株価」、「為替(ドル円)」、「S&P 500(米国株価指数)」の前日終値と前々日比を教えてもらいます


(4) 次に本日、明日、明後日の3時間ごとの天気予報を教えてもらいます


(5) 本記事ではこちらメインです。第1章で紹介した全サイトの最新記事を一覧で表示してもらいます。第3章で少し紹介しましたRSSリーダー機能の自作部分になります

全記事のタイトルと概要を確認しながら、気になる記事は「CTRL」+「左クリック」でどんどん裏側のタブに開き、あとでまとめてチェックします。

本記事にて紹介したサイトの直近記事を全て整理して順番に表示してくれるので、どんどん下にスクロールしていき、タイトル、該当をチェックしていきます。


(6) 最後に新着論文の確認として、「Hugging Face の Daily Papers」を表示してもらいます。全論文を一気に確認するために各論文のAbstractを日本語でざっと読みたいです。論文のAbstractはさすがにブラウザ翻訳では読めるレベルに翻訳できないので、HAROは「AI-Agent」としてLLM(Gemini 2.0 Flash)を使用して翻訳しています(詳細は次節にて)


以上が動作概要、ならびに私の「毎朝のサイト情報チェック」手法になります。


加えて、ニュースレターの確認として、Gmailの「情報収集」ラベルに届いた新着メールの内容をチェックし、一日の情報収集・確認が終了です。


本節の最後に、実際の動作の様子を動画で紹介します。


【動画】(最高画質で視聴する場合は、再生時に画質:1080pに設定してください)

https://youtu.be/oqBEd2ugnqk


(※動画の最後は、次回の記事「Gemini 2.0 Flash API の使用方法を実装しながら解説」の会話の様子になっています)


4.2 Agent構築技術の概要

前節で紹介したAgentの構築技術・構成の概要を紹介します。


Agent「HARO」のデザイン

  • 「GPT-4」で静止画デザインを生成
  • 「起動時の動画」は静止画デザインをベースに「Sora」で生成


フロントエンド

  • メインは「React.js」
  • ビルドツール(≒バンドラー)は「Vite」
  • デザインシステム(UIコンポーネントライブラリ)は「Material-UI(MUI)」
  • Chat Componentは「chat-ui-kit-react」
  • ホスト手法:サーバーサイドレンダリング(SSR)ではなく、Google Cloud のCloud Storage上にビルドして静的ホスティング

を採用しています。

[備考]
Agentとの会話UIコンポーネントの実装には、「chat-ui-kit-react」を使用し、SCSSでChatGPTのような雰囲気のUI・UXになるようにデザインを調整しています。

Agentの発言がカタカタとストリーム処理で描画されている部分は、実際はストリーム処理ではなく、一括で取得した発言内容をReact.jsで少しずつ描画しています。

ただし、たとえば金融情報で前々日比がプラス or マイナスによって文字色を青色もしくは赤色に変更する、天気情報は表形式で会話出力させるなどは、単に文字を少しずつ描画するだけでは実現できません。

そのため、文字レベルではなく、HTMLレベルでカタカタとストリーム処理(っぽく)表示させています。

Agentの発言内容をMarkdown形式で作成 or 取得し、「markdown-it」ライブラリでHTMLに変換し、そのHTML要素を少しずつ描画しています(Tableの場合はTable単位で描画させています)。


バックエンド

バックエンドは全てAPIとなっており、フロントエンドから「Fetch API」で読み込んでいます(今回はaxiosではなくFetchで実装してみました)。

バックエンドのサーバー管理も避けたいので、サーバーレスである「Google Cloud Run Function」を使用しています(AWSではLambda、AzureならAzure Functionsにほぼ該当)。

おおまかな「アーキテクチャ構成図(的なもの)」は以下となります。


APIたち

[1] HAROに搭載されている機能のうち、本記事で紹介した範囲で使用しているAPIとしては、「RSS to Json」 の活用がキモとなっています。

各サイトの最新情報を取得する際、サイト先をスクレイピングするわけにもいかないですし、各サイトの「RSSフィード」のページを読み込む作戦はJavascriptで直接FetchするとCORSエラーではじかれるため、「RSSフィード用のサーバー」を置く必要があります。

「RSS to Json」はこのサーバー機能を担ってくれ、外部APIとして利用することで、各サイトの最新記事情報を取得でき、フロントエンドだけでRSSリーダー機能を実装できます。なお使用量としては、Freeプラン(無料)の契約で十分に足ります。

※のちほど紹介しますが、「RSS to Json」で取得した情報をさらに加工する必要がある場合は(日本語へ翻訳など)、「Cloud Run Function」を使用しています。

https://rss2json.com/


[2] 「簡易版・金融情報取得API」は 良い外部APIサービスが見つからなかったので、「Cloud Run Function」上に、PythonでAPIを構築しています。

というのも、Pythonの「yfinance」パッケージであれば、「日経平均株価」、「為替(ドル円)」、「S&P 500」を取得できるのですが、この3つを取得できる「外部API」が見つからなかったからです。

日経平均 と S&P 500 がどちらも金融商品ではなく株価指数のためでしょうか、上記の3つが全て無料で取得できる外部の無料APIを私には見つけられませんでした。

https://pypi.org/project/yfinance/


[3] 天気情報は「OpenWeatherMap」の「5 Day / 3 Hour Forecast」APIを使用し(無料です)、天気、気温、降水確率、降水量、風速などを取得して、表に整形して表示しています。

https://openweathermap.org/forecast5


[4] 「Hugging Face Daily Papers」の新着紹介論文および日本語版Abstractの取得は、最初にフロントエンド側が「Google Cloud Run Function」を叩き、「Google Cloud Run Function」が「RSS to Josn」APIを叩いて、英語での新着論文の情報を取得します。

「Google Cloud Run Function」から「Google Cloud Vertex AI」に繋ぎ、「Gemini 2.0 Flash Experimental」に、「日本語に翻訳してください」とお願いのプロンプトと共に取得した全論文のAbstractの情報を送って、生成・返却された日本語訳を「Google Cloud Run Function」からフロントエンドに返しています。


link: https://note.com/npaka/n/n36ac85db4114


5. さいごに

以上、AI系を中心とした「ビジネス」、「開発・技術」、「研究論文」に関する情報収集について、どのようなサイトやニュースレターを活用しているのか、そしてどのように収集・閲覧しているのかを紹介いたしました。

そして第3章では、効率的なサイト閲覧方法、およびニュースレター(メール)整理手法を紹介いたしました。

最後に第4章では、実際に私がどのように「AI-Agent(もどき)」を活用して情報取集を効率化しているのかを解説しました。

皆さまの情報収集の参考になる点がございましたら、幸甚に存じます。

長文を一読いただき、誠にありがとうございました。


小川 雄太郎
株式会社松尾研究所 シニア・リサーチャー。「知能を創る」PJTに従事

松尾研究所テックブログ

Discussion