🎍生成AI界隈の2024年振り返りと2025年展望 〜 実用化フェーズの教訓と来年はどう進化する?🎍
こんにちは!本記事では、2024年の生成AI分野での主要な動きを振り返りつつ、来年に向けた展望をまとめてみました。所属企業での実装経験や各種カンファレンス(2024年は大きなところだとMS BuildやAWS re:Inventに現地参加させていただきました)での知見を踏まえ、実務者の視点で解説していきます。
そして以下の記事で、今年最後の記事です!と書いてましたが、今年の締めとしては微妙だったので本記事を書こうと思いました😂
では早速書いていきたいと思います!まずは生成AIに関する2024年の主な動きについてです。
2024年の主な動き
1️⃣ RAGの普及と現実解
今年はRAG(検索拡張生成、Retrieval-Augmented Generation)に取り組む企業が爆発的に増えました。社内FAQや問い合わせ対応、ナレッジ共有など、既存のドキュメントを効果的に利用するユースケースが多数登場。
特徴的だったのは:
- ベクトルDB一辺倒から、グラフDBやRDBとの併用へと発展
- 完璧な精度を追求するより、実用レベルでの運用を選択
- チャンク化やプロンプト設計、前処理、後処理のベストプラクティスが確立
2️⃣ ファインチューニングによるコスト最適化
2024年初っ端ではOpenAI一強な雰囲気だったりしましたが、今ではGPT-4やGPT-4oをそのまま使うのではなく、より安価なモデルを自社データで強化する流れが生まれました。
代表的なアプローチ:
- 小規模モデルのファインチューニングによるGPT-4o相当の性能実現
- RAGとの組み合わせによる精度向上
- データ収集→学習→評価のパイプライン整備
モデル側以外のコスト最適化の観点で言えば、「そもそも推論リクエストを減らせばいいじゃん」という最適化も重要視され、プロンプトキャッシュやバッチ処理、インフラ方面ではPTUなども出てきました。
3️⃣ エージェントブームと現実的な落とし所
LangChain/LangGraphなどのオーケストレータを活用したAIエージェントが注目を集めました。が、一部で「何でもできる夢のシステム!」という期待が高まりすぎて、やや幻滅期的ムードも…。
見えてきた方向性:
- 「何でもできる」から「特定タスクに特化」へのシフト
- 広義(サービス型)と狭義(制御型)の使い分け
- 人間との協調を前提とした設計思想(Human in the loop的な)
WebサービスとしてのAIエージェント(広義)と、特定のフレームワーク内で細かく制御された制御型エージェント(狭義)が混在。導入時には必ず要件を整理して、どちらを使うのか決めるのが吉。
また、「完全自律で放置」は現時点では危うい場面が多く、人が途中で確認しフォローする設計が現実解かなと思います。
4️⃣ マルチモーダル対応の一般化
図表・画像・音声対応が当たり前となり、企業の非構造化データを直接活用できる環境が整ってきました。
AzureではDocument Intelligenceがアップデートされたり、Content Understandingが出てきたりした一方でAWSからはData Automationといったパースサービスが出てきたりしました。
注目のポイント:
- Excel/PDFなどの非構造化データのパース手法が標準化されつつある
- JSONベースのメタデータ管理による精度向上
- 情報の構造化による再利用性の向上
- クラウドにおけるマネージド・サービスでのパースサービスの提供が本格化
2025年の展望
1️⃣ ファインチューニング適用の本格化とモデルマージの流行
来年はさらにファインチューニングが加速すると予想していますが、そこに モデルマージ という新潮流が加わりそうです。
- o3などの高性能/超大型モデルの知識を小型モデルへ蒸留
- 複数モデルのマージによる効率的な推論 (現状あまり注目されてないが、arxivなどを見てると盛んになりそうな感覚があります。)
- ドメイン特化型モデルとの組み合わせによる精度向上
- 自動的な学習データ最適化と効率的な運用
ファインチューニングとRAGを組み合わせた評価基盤(LLMOpsみたいな概念)が整いつつあり、運用負荷も下がってくるのではないでしょうか。
2️⃣ RAGの本質的価値の再定義
「RAGは魔法ではない」という理解が定着する一方で、より本質的な活用が進むと思われます:
- マルチDB(ベクトル/グラフ/RDB)の統合的活用
- 大規模コンテキストを活かした高度な推論
- リアルタイムデータとの連携強化
企業内システムの常として、ドキュメントやDBは日々変化するため、“リアルタイムRAG”をどう実装するか、という新たなテーマが注目されるはず。
3️⃣ エージェントの実用フェーズ突入
今年は「エージェントってどこまで使えるの?」と手探り状態でしたが、2025年には各社フレームワークの完成度が上がり、実務適用が本格化すると思います。
メタ認知能力を持つLLMの登場により、実ビジネスでの活用が加速:
- カスタマーサポートや自動交渉での試行導入から本格導入
- 長期的な文脈理解による判断精度の向上
- 業務プロセスへの深い統合
メタ認知や長大コンテキスト(Gemini的なロングコンテキスト長)を活かせるモデルが増え、エージェントの信頼性や応答品質の向上が進むと思います。
4️⃣ パーソナルAIの台頭と課題
パーソナルAIは、ユーザー個別の文脈を継続的に学習し、常に最適なアシストをしてくれる存在として話題です。2024年の段階ですでに「NotebookLM」や「DeepResearch」など、ある意味パーソナルに近いツールが出始めましたが、来年さらに洗練されそうです。
個人レベルでのAI活用が本格化する一方、新たな課題も浮上:
- 個人の仕事や学習プロセスの最適化
- 長大コンテキスト(Gemini的なロングコンテキスト長)を活用した継続的サポート
- セキュリティ、プライバシーや意思決定の透明性への懸念
5️⃣ 開発パラダイムのシフト
昨年あたりから「LLMファーストな開発プロセス」なんて言葉も聞こえ始めましたが、2025年は本格的なパラダイムシフトが起きるかもしれません。
- LLM前提の開発プロセスや社会実装が加速し、従来のアジャイルを超える新スタイルへの転換が模索される(既存SIモデルからの脱却なども含む)
- RAG/ファインチューニング/エージェントの統合アーキテクチャ
- プログラミング自体のコモディティ化(巷では、SaaSのコモディティ化なども囁かれ始めてたり)
エージェントに任せる範囲が広がり、実装や検証を人が介在しなくてもできる時代がさらに近づく。開発者には“LLMをどう設計・運用するか”という新たなスキルが求められるでしょう。
まとめ
2024年は生成AIが「実用化フェーズ」に入った大きな転換期でした。RAGやファインチューニング、AIエージェントが実際の業務フローに組み込まれ始め、「やってみたら意外と使えるかも!」を体感した一年でもあったと思います。
そして2025年は、この勢いをさらに広げ、「統合」と「最適化」がカギになるのではないでしょうか。具体的には:
1. モデルの柔軟な組み合わせ(大型×小型、ドメイン特化モデルなど)
2. ファインチューニング手法の高度化(モデルマージで効率化も?)
3. RAGの本質価値の追求(ハイブリッドDB対応、リアルタイム性、メンテナンス)
4. エージェントの本格利用(マルチエージェント協調、Human in the loopで最適運用)
5. パーソナルAIの普及と社会課題(プライバシーや透明性の確保)
これらが合わさることで大きなブレークスルーが生まれそうです。AIエージェントやマルチエージェントについては、各社が様々なエージェントフレームワークをオープンソースで公開しており、かなりのスピード感で進化中。2025年中にはさらに実務に溶け込むシーンが増えるでしょう。来年はどんな年になっていくか楽しみですね!
ということで、これで本当に今年最後の投稿としたいと思います!
来年も引き続きよろしくお願いいたします!よいお年を!
参考
2024年振り返り系記事で面白かった記事のリンクをつらつらと更新していきます。
2025/1/6追加:
【免責事項】
本記事の情報は執筆時点(2024年12月27日)のものです。本記事は、公開されている情報に基づいて作成されていますが、誤りが含まれている可能性もあります。内容の正確性については、読者ご自身の責任で判断をお願いいたします。AI技術は急速に進化しており、製品の仕様、価格、可用性などが予告なく変更される可能性があります。また、本記事の内容は一般的な情報提供を目的としており、専門的なアドバイスとしては意図していません。適切な専門家にご相談ください。
Discussion