[2024年5月22日]週刊AI・WEB開発関連記事まとめ
こんにちは、Kaiです。
先週は破壊的な発表もなく、少しAI系ニュースの数がトーンダウンでしたかね。
まぁ、たまにはこういうタイミングもないと追いかけている側の身が持ちません。
注意事項
- 先週収集したAIおよびWeb系の記事やポストが中心になります
- 私のアンテナに引っかかった順なので、多少古い日付のものを紹介する場合があります
- 業務状況次第でお休みしたり、掲載タイミングが変わったりします
特定AIサービス
Claude: Tool use(Function calling)でストリーミング、画像使用可能に
5月16日のアップデートで機能拡張されました。
Gemini: 1.5Proがサイレント性能向上?
論文が更新されており、2月から大幅な性能向上があったようです。特に大々的なリリースはされていませんが、タイムラインを見ていると「あれ?」という感じになっています。
Gemini: Google AI Studio
サイレント修正されてつよつよになったGemini 1.5 Proを今のところ無料で使えます!
と思ったらマルチモーダルはダメっぽい……?私の環境では画像もPDFもダメでした。
その他AI系話題
Stockmark LLM
Stockmarkより、フルスクラッチの100Bモデルが公開されました。
追加学習ではなく、完全にゼロから構築された日本語モデルとしては最大規模ではないでしょうか。
また、「ビジネスドメインに特化」とのことで、事業活用を前提としていることがうかがえます。
RAG評価ツール「RAGAS」の論文を読む
RAGは当社でも利用している手法ですが、果たして結果がよくなったのか?どう計測する?という問題によく行き当たります。それを解決するRAGASというRAG評価ツールの元論文解説です。
高効率のLLM学習手法ReFTを試してみる
PEFTの一種ではありますが、LoRAがモデルの重みに介入するのに対し、ReFTは中間層の出力に介入するとのことです。PEFT全般に言えることですが、繊細なパラメータチューニング、学習データの取捨選択が必要な印象です。
AIラジオ『zenncast』の技術構成(プロンプトつき)
前回ご紹介したZennの自動AIラジオの裏側公開記事です。Jina Readerは寡聞にして存じませんでしたが、URLを指定するとHTMLをマークダウンに変換してくれるのはかなり便利ですね。
LLM に表データを読み解かせたかったので、ちょっと試してみた
表データに対してLLMでSQL的操作を行うの、結構難しいんですよね。DataFrameを与えても訳の分からない抽出を行うことが結構あります。それを解決する最新手法をいくつか紹介してくださってます。
Screenshot to Code
WEBのスクリーンショットを貼るとそのままコードに変換してくれるサービス。GPT-4oにも最近対応しました。サービス開発がさらに加速するとともに、模倣やフィッシングのリスクも上がっています。
そしてなんとオープンソース。
In-Context Learning with Long-Context Models: An In-Depth Exploration
カーネギーメロン大学からの論文。分類タスクで、プロンプトに膨大な数の分類例を含めることで、ファインチューニングを上回るタスク性能の向上が得られるとのこと。ただし、性能向上は学習ではなく提示された類似例へのアテンションによるものと考えられます。
WEB開発系話題
AWS LambdaをDocker化する際の注意点と学びの備忘録
ちょっとした仕様の違いでつまづいた内容を記録してくださっています。
Prismaでスキーマ変更を行う際のベストプラクティス
当社でもPrisma利用しているので、実用的でありがたいです。
その他一般テック話題
Dockerのコンテナイメージを1/10以上軽量化してみた
確かに何も意識せずイメージ作りまくっているとこうなりそう。定期的なお掃除が必要ですね。
「Git」に深刻度「Critical」の脆弱性 ~「Git for Windows 2.45.1」などが公開
対象の場合はアップデートしましょう。
Discussion