💡

[2024年6月6日]週刊AI・WEB開発関連記事まとめ

2024/06/06に公開

こんにちは、Kaiです。
先週もメジャーAIサービスの大きな発表はなく、落ち着いていました。
Gemini1.5 ProがChatbot Arenaでトップになったという話もありましたが、体感としてはあまり……という印象です。
むしろ、最近はローカルLLMや社会実装など、「実際に使うには」という話題が増えてきているように感じます。

注意事項

  • 先週収集したAIおよびWeb系の記事やポストが中心になります
  • 私のアンテナに引っかかった順なので、多少古い日付のものを紹介する場合があります
  • 業務状況次第でお休みしたり、掲載タイミングが変わったりします

特定AIサービス

Perplexity: Pages

Perplexityに、自動で情報をキュレーションしてくれる新機能が搭載。
https://tetumemo.m-newsletter.com/posts/30088f459a6b1556
しかもSEOにも強いらしい。これ膨大なコンテンツが生成されるだろうなぁ……。
https://x.com/tetumemo/status/1797615715450773832

eraser: Docs and Diagrams for Engineering Teams

AIで様々なエンジニアリングの図を作成可能。
シーケンス、フローチャート、ER図など。
少し使ってみたところ、確かにかなりすごい。一発で完全なものは出てきませんが、叩き台が一瞬で出てくるのはとてもいいです。
https://www.eraser.io/

その他AI系話題

AI搭載エディタCursorの紹介と機械学習コンペでの使用レビュー

ずっと気になっているのですが、業務利用はちょっと難しいこともありまだ使ってません。
確かにコンペや趣味開発から始めるのはアリですね。
https://speakerdeck.com/k951286/aida-zai-eteitacursornoshao-jie-toji-jie-xue-xi-konhetenoshi-yong-rehiyu

最近の7B小型日本語LLMはエージェントになれるのか?

ひと昔前は、ローカルで動くLLMは話にならないほど低性能でした。
最近は量子化や圧縮技術が進化し、7Bモデルでもそれっぽい動作をするようになっています。
ではそれを使ってエージェントモデルを作れるのか?という検証記事です。
実用にはまだ足りませんが、もう1,2歩のところまで到達している感じですね。
https://soysoftware.sakura.ne.jp/archives/3934

生成AIによる「慣用表現の『乗っ取り』」と、その根底にある別の問題と

ChatGPT前後で学術論文に使われる語彙が劇的に変わっており、その原因はChatGPTのヒトによるチューニング外注先のナイジェリアであるとのこと。
ナイジェリアのビジネス英語で頻出する単語に、世界全体の語彙が「乗っ取られて」いるという分析。
https://tjo.hatenablog.com/entry/2024/05/31/171000

CyberAgent AI事業本部新卒研修「MLOps」の資料を公開します

全部読み切れてはいないものの、これだけの資料を公開してくださるのは素晴らしい。
もちろん、技術力、教育制度アピールの要素はありますが……。
https://developers.cyberagent.co.jp/blog/archives/48203/

Mamba-2

先週出て注目を集めたプレプリント論文です。
TransformerがSelf-Attentionによる二次関数的な計算コストなのに対し、「状態空間モデル」によって性能劣化なく線形な計算コストにできるとのこと。
概念的な数式を見る限り、RNNに回帰したように見えてしまうのですが、状態空間モデル理論により逐次計算ではなく並列計算ができるようです。
https://arxiv.org/abs/2405.21060

(著者による解説)
https://goombalab.github.io/blog/2024/mamba2-part1-model/

実務で生成AIサービスを開発してわかったこと

実務でやろうとすると行き当たる色々な問題を体験ベースで書いてくださってます。
私たちも割と行き当たる問題……。
https://zenn.dev/naoya_tech/articles/ef5e5d0f876b1f

ローカルLLMで試行錯誤してみた話

このあたり、Difyがローカルで使えるので割と解決できる部分もありそうです。
https://blog.howtelevision.co.jp/entry/2024/05/31/101918

ChunkLlamaによる追加学習なしのLLMコンテキスト拡張を試す

Llama-3も、コンテクストを拡張するLlama3-gradientが出ていますし、こういった拡張技術も現在盛んに研究されています。
https://qiita.com/Aratako/items/2372bd13b5368f3a959a

Hugging Face ZeroGPU のチュートリアル

HuggingFaceに月9ドル払うと、A100を最大120秒間使えるとのこと。
うーん?ColabのProの方がコードもいじれるしよくない?と思いますが手軽に推論するだけならいいのかな。
https://note.com/schroneko/n/n58986a1ed219

Google Colabで時系列基盤モデルを試す④:amazon chronos-t5

時系列予測は非常に難しい問題であり、LLM同様基盤モデルが提案されています。
HuggingFaceで使える4つのモデルを実際に試したまとめ記事です。
(最後のモデルはめちゃくちゃ性能がいいように見えますが、著者の方も指摘している通り元データがLeakしている可能性あり)
https://note.com/hatti8/n/n9e9221c8d1ca

その他一般テック話題

ミニ脳16個入「バイオプロセッサ」

スイスのスタートアップからの論文。
ヒト脳の細胞構造体を組み合わせたバイオプロセッサにより、消費電力を従来のプロセッサの100万分の1に出来るとのこと。
そりゃ直接消費電力は抑えられるでしょうが、培地を常時交換しているのでトータルのエネルギーコストを考える必要があると思います。
https://levtech.jp/media/article/column/detail_448/

CareNet Engineers

Discussion