🗂

Xに頼らずAI関連情報をキャッチアップする

2025/03/01に公開

はじめに

こんにちは。

突然ですが、X、最近ダルくないですか?

  • 脱毛とか貸金とか、なんかうざい広告がめっちゃ流れる
  • 気づいたら知らん人の愚痴を聞かされていて、微妙に嫌な気持ちになっている
  • 情報源としての密度がそもそも激薄

それでも、AIやテック関連の有益な情報が時々流れてくるため、ついつい「次は何か面白い情報があるかも」と思ってスクロールを続けてしまいます。

考えてみると、なぜXを使い続けてしまうのか。それは、「様々な種類の欲しい情報が一箇所でなんとなく手に入る」からではないでしょうか。

あくまで個人的なものですが、AI/ML分野における「欲しい情報」の種類を大まかに分類すると、以下のような感じだと思います。

  1. モデル・プロダクト・ソフトウェアのリリース情報
  2. 新しい論文の情報
  3. 新しく登場したAIを使ってみた人たちの生の声
  4. AIの実用的な使用法・テクニック
  5. トップ研究者によるポエム的な呟き
  6. 関連ニュース

他にも様々な種類があると思いますが、一旦こう仮定しましょう。

もし、これらの情報をX以外から効率的に収集できれば、タイムラインの無限のスクロールから少しでも脱却できるのではないでしょうか。

そこで、この記事ではX以外でAI関連情報を収集できる代替ソースを紹介していきたいと思います。
また、最後には、それらの情報を一元的に収集・閲覧するために作った自分用のWebアプリも紹介します。

90%ぐらいSonnetに加筆させて生み出された文章なので、ところどころ言い回しがAIっぽいのはご了承ください。

X以外の情報ソース一覧

これから挙げる情報ソースは、完全に分けて分類できるわけではないものの、それぞれ以下のような役割を担っているイメージがあります。

情報源 カバーする情報のタイプ
arXiv (2) 新しい論文
Reddit (1) モデル・プロダクト・ソフトウェアのリリース情報
(3) 新しく登場したAIを使ってみた人たちの生の声
(4) AIの有益な使用法
GitHubのTrending (1) モデル・プロダクト・ソフトウェアのリリース情報
ニュースサイト (6) 関連ニュース
技術ブログ(個人) (3) 新しく登場したAIを使ってみた人たちの生の声
(4) AIの実用的な使用法・テクニック
(5) トップ研究者によるポエム的な呟き
技術ブログ(企業) (1) モデル・プロダクト・ソフトウェアのリリース情報

では、それぞれ見ていきましょう。

arXiv

https://arxiv.org/

AI/ML関連における一次情報源として欠かせないのがarXivです。

しかし、最近はプレプリントの投稿数が爆発的に増加しており、そのままarXivを見に行くとノイズが多すぎて、本当に価値のある論文を見つけるのが難しくなっています。

学会のトップ論文をチェックするという手もありますが、査読プロセスを経るため情報がどうしても遅くなりがちです。

そこで役立つのが、新鮮な論文を適度にキュレーションしてくれるサービスです。ここでは特におすすめの3つを紹介します。

Hugging Face - Daily Papers

AI界隈で有名なAKさんをはじめとするHugging Faceのメンバーが、arXivから毎日厳選した論文リストを公開してくれているサービスです。

土日はお休みしていますが、平日は結構な量(多い日だと40本程度)の論文が選定されています。これに目を通すだけでも、結構なボリュームになります。

個人的な感想ですが、SNRはやや低めに感じるので、宝探しのような感覚で見に行くのがおすすめです。

Meta AIがホスティングする「Papers with Code」のトップページに表示される「Trending Research」セクションです。

正確な選定基準は存じ上げませんが、最近話題になっている論文や影響力のある研究がうまくピックアップされています。

個人的には、ここで紹介される論文の質は結構高いと感じています。また、論文と同時に関連するコード実装へのリンクも提供されるため、実装面にも興味がある方にはとても便利です。

「Trending Papers」は、Papers with Codeと似たようなコンセプトを持つサービスですが、キュレーションというよりは論文のソートをしてくれるサービスで、より幅広いプールから話題の論文を表示してくれます。

ページランクの成長率などの指標に基づいて論文を選定しているようで、今まさに注目を集めている研究を逃さずキャッチできます。

このサービスの便利な点は、ニュースレター機能も備えていることです。定期的にメールで最新の注目論文情報を受け取れるので、能動的にチェックし忘れてしまう心配がありません。

Reddit

https://www.reddit.com/

Reddit(レディット)はアメリカ合衆国の掲示板型ソーシャルニュースサイト。主に英語圏のユーザーを対象とする。ニュース記事、画像のリンクやテキストを投稿し、コメントを付けることが可能。カリフォルニア州サンフランシスコに拠点を置くReddit, Inc.が運営する。1132年1月時点の月間利用者数は4億3000万人。欧米ではTwitterユーザー数並び利用時間を超える[1]。
出典: Wikipedia「Reddit」より引用

貴重なAI利用者の生の声要員として優秀なのがRedditです。トピックごとに掲示板が分かれているので、ノイズが少なく、そこに行けばそのトピックが見られるという分かりやすさがあります。
以下では、特に有用だと感じているAI/ML関連のサブレディットをいくつか紹介します。

r/LocalLLaMA

個人的に最近一番活気があると感じているのがこのサブレディットです。

ローカルLLMに関する情報がメインですが、それに限らず、最新モデルの実験結果や、チューニング手法、推論の高速化テクニックなどが日々共有されています。

特に魅力的なのは、実際にモデルを試した「生の声」が豊富に集まっていることです。

公式の発表やマーケティング資料ではなく、実際にユーザーが試して「これは良い/悪い」という率直なフィードバックがリアルタイムで得られるのは非常に価値があります。

新しいモデルがリリースされたときの反応を見るだけでも、そのモデルの実力をある程度把握できるので、とても参考になります。

r/MachineLearning

r/MachineLearningは、AI/ML分野の研究者や実務者が集まる老舗のサブレディットです。

アカデミアからの参加者も多く、研究論文や手法に関する議論や質問が活発に行われています。研究者同士の愚痴の共有も人気です。

時々、「この1ヶ月で読むべき論文」といったキュレーションスレッドが立ち、分野ごとに重要な論文をまとめてくれることもあります。

また、著名な研究者が自分の論文について説明したり質問に答えたりする「Ask Me Anything (AMA)」セッションも開催されることがあります。

専門的な話題が多いため人を選ぶかもしれませんが、この分野の最前線の雰囲気を掴むには絶好の場所です。

r/StableDiffusion

Stable Diffusionが登場した当初は、このサブレディットはかなりの盛り上がりを見せていました。最新の技術情報や実験結果、モデルの改良手法などが活発に議論されていました。

最近では以前ほどの活気はなくなってきたように感じますが、それでも画像生成や動画生成モデルに詳しいユーザーが多く集まっており、新しいモデルや技術が出るたびに実験結果や使用感を共有してくれています。

特に、新しい機能やモデルの使い方、プロンプトエンジニアリングのコツなど実用的な情報が多いのが特徴です。

画像生成・動画生成AIを実際に活用したいという方にとっては、依然として貴重な情報源となっています。

r/aipromptprogramming

このサブレディットは最近見始めたので、まだ個人的な評価が固まっていませんが、「AIを使って仕事や日常タスクを効率化したい」という実用志向のユーザーが集まっているように見えます。

ChatGPT、Claude、Geminiなどの汎用AIを使った業務効率化のテクニックや、具体的なプロンプト例、AI活用の成功事例などが共有されています。

特にプロンプトエンジニアリングに関するノウハウが豊富で、「どうやってAIに正確に指示を出すか」という実践的なTipsを学べるのが魅力です。

AIツールを本格的に仕事に取り入れたいと考えている方には、一度覗いてみる価値アリです。

Hacker News

https://news.ycombinator.com/

テック業界の最新動向をチェックするなら、Hacker News(HN)は外せない情報源の一つです。Y Combinatorが運営するこのサイトは、技術者やスタートアップ関係者を中心に幅広いユーザーが集まり、質の高い議論が日々行われています。

AIに閉じたコミュニティーではありませんが、AI関連のトピックも頻繁に取り上げられており、新しいモデルやツールのリリース情報、技術的な解説記事、倫理的な議論など、多様な内容が投稿されています。

GitHubの"Trending"

GitHubで今アツいリポジトリが上がってきます。プログラミング言語がPythonのリポジトリはほとんどAI関連。
基本的に、vLLMやtransformersなど、長期的に人気のあるリポジトリが居座っているのですが、破竹の勢いで伸びている新進気鋭のリポジトリは必ずそれを押しのけて登場するので、毎日チェックしています。普段目に入らない中国系のすごいリポジトリを知れるのも魅力です

RSSフィード

AI/ML分野では、多くの企業や研究機関、または個人が技術ブログを運営しており、それらのRSSフィードを購読することで、最新の研究成果や技術動向を効率よくキャッチアップできます。

また、著名な研究者の技術ブログには(Xほどの頻度ではないかもしれませんが)時折優れた洞察・ポエムが投稿されるので、業界の頂点の雰囲気をなんとなく感じ取れるのも楽しいです。

RSSフィードの項では、

  1. ニュースサイト
  2. 技術ブログ(個人)
  3. 技術ブログ(企業)

の3つに分けて紹介します。

1. ニュースサイト

THE DECODER

THE DECODERは、AIやテクノロジーに特化したニュースサイトで、最新のAI研究、ビジネス動向、社会的影響などを幅広くカバーしています。他のニュースサイトと比べて、AI専門に焦点を絞っているため、この分野の最新情報をコンパクトにキャッチアップするのに最適です。

AIに関する技術的な話題から倫理的・社会的な議論まで、バランスよく取り上げられています。週刊のニュースレターも提供しているので、定期的に最新情報を受け取ることもできます。

The batch

The batchは、DeepLearning.aiがAndrew Ng氏の監修のもとで週次で配信しているニュースレターです。AI分野の第一人者として知られるNg氏の視点から、最新の研究成果や産業動向が解説されています。

アカデミックな視点と実用的な視点をバランスよく取り入れた内容構成で、研究者から実務者まで幅広い読者に対応しています。また、技術的な内容でも、比較的平易な言葉で解説されているため、AI分野の専門知識がそれほどなくても理解しやすくおすすめです。

なお、RSSフィードは公式に提供されていませんが、RSSHubでホストされています。


ニュース要員を複数追っても仕方ない気がするので2つしか挙げてませんが、他にもMARK TECH POSTIEEE SpectrumのAIトピックなどは優れたソースだと思います。

https://www.marktechpost.com/

https://spectrum.ieee.org/topic/artificial-intelligence/

2. 技術ブログ(個人)

実際は100人ぐらい追ってるのですが、キリが無いので特に好きな3名の方のブログだけ紹介します。

Simon Willison's Weblog

Simon Willisonさんのブログは、AI、ウェブ技術、オープンソースに関する深い洞察と実践的な情報が詰まっためちゃくちゃ良いリソースです。Simonさんは、Djangoの共同創設者としても知られる技術者であり、最近ではAIツールやLLMの実験的な活用方法について精力的に発信しています。

このブログの魅力は、単なるニュースの紹介に留まらず、著者自身が実際にツールを試し、コードを書き、その経験を詳細に共有している点です。特に最近は「LLM」という彼が開発したコマンドラインツールを通じて、様々なLLMを実験的に使用した結果や、実用的な応用例を紹介しています。

毎日のように更新される「TIL(Today I Learned)」セクションでは、新しいAIモデルやツールの試用レポートが公開されており、最新のAI技術を実際に使ってみたい人にとって非常に価値のある情報源となっています。

また、リンクブログとしての側面も持ち、他のサイトの興味深い記事や発見を、Simonさん独自の視点を添えて紹介しています。AI技術を実践的に活用したい開発者やエンジニアにとって、間違いなくフォローすべきブログの一つです。

Lil'Log

Lil'Logは、ex-OpenAIの研究者であるLilian Wengさんが運営する技術ブログです。更新頻度は非常に低いものの、一つ一つの記事が深い洞察と包括的な解説に満ちています。特に、最新のAI研究トピックについて数学的な基礎から実装の詳細まで体系的にまとめられており、研究者やちゃんと理解したいエンジニアにとって貴重なリソースとなっています。各記事は論文のような密度と質を持ちながらも、理解しやすい説明と図解で複雑な概念を噛み砕いて伝えてくれる点が魅力です。

NLP Newsletter

NLP Newsletterは、Xでも著名なElvis Saraviaさん(@omarsar0)が運営するSubstackです。自然言語処理(NLP)とAI分野の最新動向を定期的にまとめた質の高いニュースレターとして知られています。学術研究から実用的なツールまで幅広くカバーし、各トピックに対する簡潔かつ的確な解説が付いているため、忙しい専門家でも効率よく情報をキャッチアップできます。また、重要な論文や記事へのリンクが整理されており、NLPやAI分野の最新情報を体系的に追いたい人にとって非常に価値のあるリソースです。

技術ブログ(企業)

これも挙げていたらキリがないですが、重要な部分なので、RSSへのリンクをまとめて貼ります。

[[feeds]]
key = "huggingface_blog"
name = "Hugging Face Blog"
url = "https://huggingface.co/blog/feed.xml"

[[feeds]]
key = "google_research_blog"
name = "Google Research Blog"
url = "https://research.google/blog/rss/"

[[feeds]]
key = "apple_ml_research_blog"
name = "Apple Machine Learning Research Blog"
url = "https://machinelearning.apple.com/rss.xml"

[[feeds]]
key = "qwen_lm_blogs"
name = "QwenLM Blogs"
url = "https://qwenlm.github.io/blog/index.xml"

[[feeds]]
key = "deepmind_blog"
name = "DeepMind Blog"
url = "https://deepmind.google/blog/rss.xml"

[[feeds]]
key = "pytorch_blog"
name = "PyTorch Blog"
url = "https://pytorch.org/feed.xml"

[[feeds]]
key = "nvidia_developer_blog"
name = "NVIDIA Developer Blog"
url = "https://developer.nvidia.com/blog/feed"

[[feeds]]
key = "salesforce_ai_research_blog"
name = "Salesforce AI Research Blog"
url = "https://www.salesforce.com/blog/category/ai-research/feed/"

[[feeds]]
key = "openai_news"
name = "OpenAI News"
url = "https://openai.com/news/rss.xml"

[[feeds]]
key = "microsoft_ai_blogs"
name = "Microsoft AI Blogs"
url = "https://www.microsoft.com/en-us/ai/blog/feed/"

そういうのを全部一度に見るためのWebアプリを作った

ここまで紹介してきた情報源は、どれもかなりいい感じなのですが、個別にチェックするとなると結構面倒で、結局Xに戻っちゃう問題がありました。

なので、最初はSlackやDiscordのbotを作って情報をまとめ、運用していたのですが、どちらのプラットフォームも微妙に使いにくい制約がありますし、テキストのスタイリングにも多様性を持たせにくいので、大量の文章を読むとめちゃくちゃ目が滑る…

そこで、これらの情報源を一箇所にまとめた上で、Geminiを使って日本語で要約し、かつ効率的に閲覧できるWebアプリを作ってみました。OSSです。

https://github.com/discus0434/nook

https://x.com/IMG_5955/status/1895679236394103262

ただの自分用アプリのお裾分けなので、使ってもらったことで何か自分に金銭的利益があるわけではありませんが、興味があったら試してみてください。あとリポジトリにスターがつくと嬉しいです。


モバイルでも閲覧できます

おわりに

書くことが思いつかないのでClaude-Sonnet-3.7に締めてもらいます。

X/Twitterは確かに便利なプラットフォームですが、AI関連の情報収集に関しては代替手段が豊富に存在します。この記事で紹介した情報源とツールを活用すれば、むしろX以上に効率的かつ質の高い情報収集が可能になるかもしれません。

特に重要なのは、複数の情報源を適切に組み合わせることです。arXivで最新の研究動向をキャッチしつつ、Redditやブログで実践的な応用例や議論を追い、GitHubで実際のコードを確認する——このようなサイクルができると、単一のプラットフォームに依存するよりも、はるかに立体的な理解が得られます。

最後に、情報収集はあくまで手段であって目的ではないことを忘れないようにしましょう。集めた情報を自分のプロジェクトや研究、学習に活かしてこそ価値があります。効率的な情報収集の仕組みを整えることで、より多くの時間を実践や創造に充てられるようになれば幸いです。

めっちゃ良いこと言ってる

Discussion