【参加レポ】SnowVillage Data Heroes Talk ~ SnowflakeのAI/LLMについて語ろう!
はじめに
Snowflake AI に特化したイベント「 SnowVillage Data Heroes Talk ~ Snowflake の AI/LLM について語ろう!」に参加したので、簡単ですがレポをまとめました。
開催概要
- 開催日時:3/10(Mon) 18:00-20:00
- 現地(Snowflake 東京オフィス)&オンライン(Youtube Live)のハイブリッド開催
- イベント概要(上記リンクのイベントサイトより引用)
AI データクラウドの最前線で活躍する Data Heroes が、最新の活用事例や実践で得た成果・知見などを共有する特別セッションを開催します!今回は「Snowflake における AI/LLM の活用」をテーマに、Snowflake Cortex や Snowflake Copilot などの最新の AI/LLM 機能に関するプレゼンをお送りします。会場は Snowflake のオフィス。さらに、YouTube Live でのオンライン配信も行います。現地参加される方には登壇者への質疑応答や Data Heroes 同士のネットワーキングの機会をご用意しています。
- タイムスケジュール
時間 | 内容 |
---|---|
18:00〜18:05 | オープニング |
18:05〜18:20 | 面接アシスタント AI アプリを Snowflake でつくってみた (鈴木 凌さん) |
18:20〜18:35 | Cortex Search を活用したメタデータ検索 Chatbot 開発 (山口 歩夢さん) |
18:35〜18:50 | 飲食店に詳しい大阪のおばちゃんチャットボットを作ってみた (石川 旺さん) |
18:50〜19:05 | Snowflake✕LangChain でできること (檜山 徹さん) |
19:05〜19:20 | Cortex Analyst でデータ分析の民主化に挑む (Yusuke Hayashi さん) |
19:20 ~ 19:25 | 写真撮影 (現地参加のみ) |
19:25〜20:00 | ネットワーキング (現地参加のみ) |
※当日は進行の都合により鈴木さんと山口さんのセッションが入れ替わりました。
セッション紹介
1. 面接アシスタント AI アプリを Snowflake でつくってみた
新卒採用を題材とした採用面接 AI アシスタントを Snowflake で作ってみたというお話。Streamlit in Snowflake(以下 SiS)の画面に配置したファイルアップローダーから応募者情報である csv ファイルをアップした後に、画面のチャットから応募者に対する質問を投げかけると裏側で Complete 関数が呼び出され AI による回答が返されるというもの。自分で質問する他にも質問の候補を AI が提示してくれるなど、言葉通りアシスタントとしての機能も作りこまれていました。
作ってみた気づきとして、AI に読ませるデータの持ち方をどうするか、日本語の言い回しが適切に翻訳されない際の工夫、Complete 関数と Extract_Answer の違いの理解といった点を挙げられていました。
2. Cortex Search を活用したメタデータ検索 Chatbot 開発
Snowflake の COMMENT 内のメタデータをあいまい検索するために Cortex Search を活用した Chatbot を開発したというお話。Cortex Search ではなく LLM 関数を用いた実装もトライしてみたが精度が出なかったのに対して、Cortex Search による RAG 環境は容易に構築できかつ高精度なものができあがったとのこと。
今回はデータの容量が小さかったためメタデータ投入時にチャンキングは実施しなかったそうですが、大きなトークンのデータを扱う際にはそういった点も考慮した実装にもチャレンジされたいとのことでした。
3. 飲食店に詳しい大阪のおばちゃんチャットボットを作ってみた
大阪の飲食店データを参照して AI がおすすめのお店を紹介してくれるというもの。飲食店データはマーケットプレイスにある truestar さんのデータを使用。チャットボットが関西のおばちゃん口調になっているというユニークなデモを見せていただきました。
実装における試行錯誤の過程として、LLM モデルが飲食店データをどのように参照させるのがよいかという点について触れておられました。データを JSON でインプットしようとするとトークン数超過となってしまったため、別の案として Text-to-SQL の仕組みで問い合わせを元に SQL を生成しテーブルのデータを取得させたこと、SQL の生成時に余分な文字列が入らないようにプロンプトの結果の取得を工夫したことなどをお話されていました。
4. Snowflake✕LangChain でできること
LangChain を用いて Snowflake 上でエージェントを作ってみようというお話。実装パターンとして(1)Python UDF を用いたドキュメント取込(2)LangChain Agent on Snowflake を用いたツール開発(3)LangGraph の利用という 3 パターンを紹介。
それぞれ実際のソースコードも交えて解説いただきましたが、特に 2 番目の LangChain Agent では誤りがあった際に AI 自身が解析・修正を試みるといったまさにエージェントという名にふさわしいものを見せていただきました。
5. Cortex Analyst でデータ分析の民主化に挑む
Cortex Analyst の概要紹介から始まりコストや動作ロジックについて説明。デモでは POS データを使った分析という題材で、メーカーの営業職の方が売上の分析情報を直感的に取得できる様子が示されました。
その後、より詳細な技術情報としてセマンティックモデルの説明に移り、その具体的な効果としてセマンティックモデル内でシノニム定義した商品サブカテゴリなどを判別し SQL が生成されていることなどもデモで見せていただきました。
感想
本イベントに参加することで、LLM 関数の呼び出しから Cortex Search/Agent、エージェント開発まで Snowflake の AI 機能の幅広さを再確認できました。
また発表者の方々のセッションからは実際に触って動かしたからこそ得られる気づきのようなものをたくさん知ることができ感謝するとともに、自分ももっとたくさんサービスを触って情報発信していきたいと思いました。
Discussion