💡

[2024年8月30日]週刊AI・WEB開発関連記事まとめ

2024/08/30に公開

こんにちは、Kaiです。
夏休み等で二週間お休みしてしまいましたが、その間のトピックスをまとめてお送りします。
かなり選びましたが、それでも結構なボリュームになってしまいました。

注意事項

  • 直近収集したAIおよびWeb系の記事やポストが中心になります
  • 私のアンテナに引っかかった順なので、多少古い日付のものを紹介する場合があります
  • 業務状況次第でお休みしたり、掲載タイミングが変わったりします

Big Tech AIサービス

Sakana AI: The AI Scientist

まぁSakanaはもうBig Techのうちだろうということでここに。お盆の話題はこれでしたね。研究の課題設定、アプローチ、実験、執筆までをAIが繰り返し試行錯誤することで、一本の論文をまとめ上げたという結果です。ただ、実用性については疑問の声も上がっているようです。
https://sakana.ai/ai-scientist/
(こちら詳細な解説記事)
https://note.com/kan_hatakeyama/n/n3dbfbf92adb1

Anthropic: プロンプトキャッシュ

ClaudeのAPIにプロンプトキャッシュが。実際のシステムでは、同じコンテクストを使いまわすことは多々ありますので、ありがたい。
https://www.anthropic.com/news/prompt-caching

OpenAI: Condé Nastとの提携を発表

大規模メディアとの提携です。一部では、GPT Searchの検索対象に、提携先メディアの内容を優先させるようなビジネスを模索しているのでは、という観測もあるようです。
https://openai.com/index/conde-nast/

OpenAI: 将来のモデルリリースについて米国政府と合意

ChatGPT5や、Opus4がなかなか出ないのは、安全保障上の問題で米国政府がストップをかけているのでは、という憶測があります。今回のサムの発言は、それを裏付けるものという見方もあるようです。
https://x.com/sama/status/1829205847731515676

(関連)OpenAIとAnthropicが未発表AIを政府機関へ提出することに合意
https://gigazine.net/news/20240830-openai-anthropic-nist-usaisi/

Google: グーグルAI、1000ページのPDFを読んで質問に答えられるように 白書レベルなら余裕

1000ページまたは2GBという容量は、通常の使用では十分に思います。ただ、その膨大なコンテクストから果たして適切な部分を特定できるのかは、試してみないと何とも言えないですね。
https://ascii.jp/elem/000/004/216/4216929/

Google: Gemini の 新機能 - Gems と Imagen 3 の概要

GemsはChatGPTでいうGPTsに該当しますのでそこまで話題になっていませんが、Imagen3はその凄まじい精度から、現在進行形で話題になっています。
https://note.com/npaka/n/n746a230f028b?sub_rt=share_pw

その他AI系話題

単語埋め込みベクトルの複素数拡張

プレプリント。コサイン類似度の飽和帯による勾配消失を回避するため、埋め込みベクトルを複素数に拡張する試みで、非常によい結果を得られているとのこと。
https://arxiv.org/abs/2309.12871

CursorのComposer 機能を使った要件定義・設計の方法

Cursor、セキュリティを担保する必要がある業務で使うにはちょっと厳しいですが、そうでない場合には大変よさそうですよね。
https://note.com/japanmarketing/n/n9b47d35858c2

生成AIがもたらすHRの未来〜海外サービスの動向から考える〜

HR領域の最新事例を紹介。納得感がありつつも、バイアスの問題は人類の経験的正解にバイアスが存在する以上、解決できないのではないかなと思います。あとは、AIが使われていることが分かれば、ハックする手法とのいたちごっこになりそうですね。
https://note.com/dory111111/n/n2aef50277eb1

AI処理下準備:学習データに含まれる個人情報データをローカルPC上でマスキングする

昨年の記事ですが、形態素解析ライブラリの出力結果を利用するのは試していなかったので備忘を兼ねて。これとローカルLLMを組み合わせると、かなりの精度でマスキングできそうです。
https://qiita.com/c_ume/items/750e17782810fe4f21ac

ゼロからRAGを作るならこんなふうに

2024年8月時点で、RAGをゼロから作る際のノウハウがまとまっています。前述のようにコンテクストウィンドがどんどん拡大している中、RAG技術の必要性も変わっていくと思います。
https://zenn.dev/minedia/articles/8f4ef7f2daed11

LangGraph:書類要約ワークフローの構築

ワークフロー構築には様々な手段がありますが、LangGraphを用いたコードレベルでの情報です。ノーコードで直感的なDifyに対し、詳細に組めるのが強みでしょうか。
https://note.com/hatti8/n/n40bccb8bf662
(関連LangGraph記事)
https://qiita.com/minorun365/items/6ca84b62230519d1d0ef

人間よりいいぜ!と思ってAI科学者を使ったら、人間より日給が高かった

前述のSakana AIのAI Scientistをゴリゴリ動かしたら大変高くなったというお話。これからどんどん安くなっていくとは思います。
https://note.com/shi3zblog/n/n567143b7dcd8

「Stable Diffusion」の失敗に学び、画像生成AIの勢力図を塗り変える「FLUX.1」

一瞬すごく話題になりましたが、わずか1週間後には先述のGoogle謹製Imagen3(ImageFX)に話題をさらわれてしまった印象。
https://ascii.jp/elem/000/004/215/4215981/

RAGを専門用語に強くする手法「Golden-Retriever」

「専門用語の辞書」を予め用意しておき、専門用語が問い合わせに出現した際、辞書で意味を補完してからRAGする手法の提案。
https://zenn.dev/knowledgesense/articles/90ac35eedf8b7c

RAGの回答を自動評価する手法(LINEヤフーのSeekAIでの事例)

指標を定め、評価を指標ごとのBooleanで行うというのは精度の原因が分かりやすくてよいですね。スコアを出しても何が原因でスコアが上下しているか分かりにくいというのはその通りかと。
https://techblog.lycorp.co.jp/ja/20240819a

LLMを用いてブログ記事の文法間違い・誤字脱字検出を自動化する

LLMというより、LLMを組み込んだレビュー業務フローに焦点を当てた内容です。他のLLMタスクにも応用できそう。
https://zenn.dev/cybozu_ept/articles/ai-blog-review-on-github

話題のGraphRAGとは - 内部構造の解析と実用性の考察

GraphRAGは何度かトピックとして取り上げていますが、ここまで詳細なものは初めてかと思います。使い方の実例と、その際の内部処理を網羅的に解説しています。
https://www.alpha.co.jp/blog/202408_01/

社内で Dify ハッカソンを開催しました!

当社もコロナで休止していた社内ハッカソンを復活させる準備をしており、参考になります。やはり手を動かして触ってみるのが一番ですね。
https://tech.algomatic.jp/entry/2024/07/16/181032

GPT-4o-miniのファインチューニングのすゝめ

タスクを細分化して軽量LLMに解かせるのは最近の流行ですが、それにファインチューニングを組み合わせるやり方。4o-miniはコストも安いので、現実的です。
https://zenn.dev/pharmax/articles/40c0e385a8956b

機械学習の推論結果を非同期にPOSTで返す — FastAPIでの実装例

非同期処理をコールバックURLで返すやり方はWEB系で割とメジャーかと思いますが、機械学習のサーバ間ではあまり見かけないのかな。
https://zenn.dev/mkj/articles/6d5ec5b0e818e2

AI医療機器の検証は混乱している:Nature

AI医療機器やアプリは、医薬品と比べて広範な臨床試験を行っているとはいえず、AI性能の検証に必要なデータ量も十分とは言えないため、医薬品に準じた異なる基準を設けるべきではという内容。
https://www.nature.com/articles/d41586-024-02675-0

【E2E連載企画 第5回】20TiB/dayのデータ処理を支えるデータエンジンの全貌

Turingの8PBにも及ぶ膨大な自動運転データを取り扱う基盤に関する解説。
https://zenn.dev/turing_motors/articles/045fedc15072b9

v0(ブイゼロ)の使い方を徹底解説!始め方や料金、プロンプトも紹介

ここ数日で一気に話題になりました。少し触り始めましたが、「Version0」を作ることに特化していると謳うだけあって、Artifactsよりもシステム開発に近い印象です。スライドやグラフなどのデザインもかなりいけますね。
https://shift-ai.co.jp/blog/6775/

(関連)
https://x.com/ai_syacho/status/1827113658692071856

WEB開発系話題

AWS IAMで特定のリージョンのみアクセス可能なIAMユーザーを作成してみた

機械学習なんかだとバージニアでPoC環境作ることもよくありますので、便利かも。
https://dev.classmethod.jp/articles/lim-iam-region-jp/

Cognitoのログイン属性を知らないようじゃ無理か。ログイン属性はね、知っとかないと。

エイリアス属性とユーザ名属性に関するTIPS。ログインID複数化と、ユニーク属性の共存について。
https://qiita.com/ayumun_jp/items/7c367efcafc7d9d9b442

【AWS】新しいAWSの開発環境について考えてみた

最近廃止が決まったサービスを踏まえ、現時点ならどうするか、という記事です。
https://qiita.com/ymd65536/items/400b5ce41573efd7ea50

弊社のフロントエンドのテストについて、考え方・方針・やっていることなど全部紹介します(2024年版)

おーこれはすごい。実務で実際にやっていることを、ここまで網羅的かつ詳しく書いた記事はあまりないのではないでしょうか。大変参考になります。
https://zenn.dev/socialplus/articles/b09827d74ff148

オンプレエンジニアがAWSを触って思ったのと違うと感じたこと

私も古の昔にBIG-IPやらを使ったオンプレサーバ群を立ち上げ・運用していたことがあるので、そんなこともあったなぁという感じです。結局、オンプレと全く同じことをパブリッククラウドで実現しようとするのは良さを消してしまう場合もあるので、「別物」と割り切っていくのが大事かなと。
https://qiita.com/masazero/items/c1c86a7347b9564e4acf

その他一般テック話題

現代的システム開発概論 2024

ソフトウェア開発・プロジェクトマネジメントにおける概念を総まとめ。
色々な本や記事に記載されている内容を分かりやすく解説してくれています。
https://speakerdeck.com/recruitengineers/xian-dai-de-sisutemukai-fa-gai-lun-2024

データ基盤について

テーマの近い記事が2つありましたのでまとめてご紹介。データはビジネス活動と密接に関連しつつ、ソフトウェアと同様に徐々に負債を生んでいきます。それにどう対処していくか、両者の視点を比較するのも面白いかと。
https://speakerdeck.com/ikkimiyazaki/detaji-pan-nofu-zhai-wosheng-manaiji-shu-toji-shu-yi-wai-nohua
https://speakerdeck.com/hiro0329/detanoshou-tuo-kai-fa-karanozu-ye

生成AI時代のソフトウェアエンジニアが持つべきケイパビリティを考える

どちらかというとAIを踏まえたキャリア論に近いのでこちらに。エンジニアの仕事がなくなる、いやなくならないという議論が最近活発化していますが、より抽象的なレイヤーで何をすべきか。
https://speakerdeck.com/tkikuchi1002/20240725-aoai-service-dev-day

Netflixによるインスタンス負荷改善のための解析事例

インスタンス負荷というからWEBのお話かと思いましたが、CPU特性のお話でした。クラウドでもキワキワになるとここまで深掘るんですね。
https://msyksphinz.hatenablog.com/entry/2024/08/22/040000

CareNet Engineers

Discussion