🤖

AI時代におけるBIツールのあり方について

に公開

カスタマーサクセスマネージャー初級の玉井です。

仕事でBIツールを扱っている以上、昨今の生成AIとの関係性をちょこちょこ聞かれるのですが、最近それが急激に増えてきました。なので、ちょっと自分の考えを整理するためにポエムをしたためたいと思います。

データ分析と生成AIの今

BIツールというのは、基本的には「データを可視化して分析するツール」ですが、最近の生成AIの成長が凄まじく、「BIツール無くても、AIにデータ分析を任せられるんちゃうの?」「AI使えば直接データと会話できるやん」という質問を最近よくされるようになりました。

特に、データを配置・格納するのが主な役割であるDWHは、ここ最近AI機能の拡充がすごいです。「データを持ってるのはうちなんやから、うちで直接データと会話できるようにしたらええやん」という話ですね。

例えば、完全なデータ対話機能としては、以下があります。

https://www.snowflake.com/ja/blog/intelligence-snowflake-summit-2025/

自然言語で会話:信頼できる同僚と同じように、質問を通じて推論を行い、インサイトを獲得。
正確なインサイトの生成:ビルトインのDeep Research Agent for Analyticsにより、単なる検索に留まらず、データの分析、複雑なビジネス上の疑問の調査、トレンドの把握、「何が」起こったかの背後にある「なぜ」の把握が可能になります。

https://www.databricks.com/jp/blog/introducing-databricks-one

AI/BI Genie を使えば、ビジネスユーザーはデータとの会話にすぐに入ることができます。
たとえば、次のような質問を自然言語で投げかけることで、「何が起きているのか」「なぜそうなったのか」「どう改善できるのか」を素早く理解できます:「最も成長している地域はどこですか?」「4月に売上が落ちたのはなぜ?」「中西部の成長を加速するにはどうしたらいい?」

他にも、SQLの生成〜可視化までを、生成AIの力でやれるものもあったりします。

https://cloud.google.com/gemini/docs/bigquery/overview?hl=ja

BigQuery データ キャンバスを使用して、データを検出、変換、クエリ、可視化する。Gemini in BigQuery で自然言語を使用すると、テーブル アセットの検索、結合、クエリ、結果の可視化、プロセス全体での他のユーザーとのシームレスなコラボレーションを実行できます。

もっといえば、Anthropic社が発表・開発したMCPの登場により、Claude DesktopのようなMCPホストから、自然言語だけで、気軽に色々なサービスの情報と接続しつつデータ分析できるようになっています。データ分析製品とMCPとの連携については、ちょっとググるだけで狂うくらいの情報が出てくるので、各自で見てみてください。

こんな便利なもんがあるんですから、そりゃあ、自分で操作してグラフやダッシュボードをするBIツールなんてもういりませんよねえ!ってなるのは自然ですし、当然かと思います。

というわけで、データ業界はこの生成AIの発達とBIツールについてどういう意見が出ているのか、調べてみたいと思います。そして、それを踏まえて、自分の考えを整理していきたいと思います。

データ業界(?)の意見

とりあえず、データ分析関係における著名な人や企業の意見を見てみたいと思います。

"How AI will Disrupt BI As We Know It"

AIとBIについて語られた記事で、結構話題になったものといえば、dbt Labs Inc.のCEOであるTristan氏が書かれた以下でしょう。ここまでハッキリとAIとBIの関係性について言及している記事はこのくらいじゃないでしょうか。

https://roundup.getdbt.com/p/how-ai-will-disrupt-bi-as-we-know

こちらの記事では、まずBIツールの役割を「Modeling」「Exploratory data analysis (EDA)」「Presentation」の3つに分けています。このうち、2番目の「EDA(探索的データ分析)」は間違いなく生成AI[1]に置き換わるだろう、という記載があります。

ちなみに、記事内では、それぞれの役割をLookerで例えて説明されていますが、以下にTableauで例えるとどうなるか書いてみました。

  • Modeling
    • 狭義では該当無し
    • 広義だとリレーション[2]
  • EDA
    • Tableau DesktopでのViz作成・編集
    • Tableau CloudまたはTableau Server上でのViz作成・編集
    • 完成したVizの操作(フィルタやパラメーターなど)
  • Presentation
    • 完成したVizをTableau CloudやServerにパブリッシュして共有する
    • 完成したVizの.twbxを配布→Tableau Readerで閲覧
    • VizのPDFや画像をサブスクリプションで配信する
    • VizのPDFや画像をダウンロードして配布
    • Vizを用いてステークホルダーにプレゼン
      • 各種プレゼンアプリ
      • ストーリー

また、EDAが生成AIに置き換わることにより、従来のBIツールの業務フロー(Exploratory Analysis→Personal Reporting→Shared Reporting→Production Artifact)も崩壊し、BIツールの業務の流れも別物に変わるだろう、といったことも書かれています。

"The boundless demand for insight"

続いては、Notebook型のSaaSを提供しているHex社のこちらの記事。BIツール自体への言及は無いですが、生成AIの登場によって、データ分析周りの業務がどう変わるかについて論じられています。

https://hex.tech/blog/jevons-paradox-demand-for-insight/

こちらは、先程の記事よりもシンプルでして、ジェヴォンズのパラドックスを出し、「AIの登場で、データ関連の業務は無くなるどころか、もっと増える」という主張がなされています。

ジェヴォンズのパラドックスというのは(まあ上記リンクを見ていただければいいんですが)何かしらの作業コストが下がる(効率が上がる)と、それ周りの工数は減るどころか、逆に増大するという法則のことを言います。

わかりやすい事例が以下の「AIと放射線科医」の話です。

https://www.worksinprogress.news/p/why-ai-isnt-replacing-radiologists

2016年頃、「近い将来、画像認識AIが発達するから、放射線科医の仕事はだんだん無くなるでしょう」という予想がありましたが、2025年現在、放射線科医の求人はむしろ増加しているそうです。画像認識の業務が楽になった結果、他の業務を色々と出来るようになり、むしろ放射線科医の業務全体としては需要が増えたということです。

日本だと、よく「ソフトウェアエンジニアやプログラマーの業務はAIにとって代わられるのでは?」「いやいや、そんなわけないでしょ」という議論をよくSNS等で見かけますが、ジェヴォンズのパラドックス的には、むしろAIの登場で(コーディングの時間は削減できても)ソフトウェアエンジニアの業務そのものは増えていくことになるのだと思います[3]

"Can analysis ever be automated?"

私が個人的に大好きな、Benn Stancil氏(Modeの創業者)のブログより。

https://benn.substack.com/p/can-analysis-ever-be-automated

全体的に興味深い記事なのですが、結構長いので、一部を抜粋します。

But when people talk about the challenges associated with automating analytical work, they often talk about making sure agents have the right data and context to answer questions correctly. The far bigger problem, however, seems to be that there’s no way to know if the work is right. You can’t click around a chart to see if it works like you can on a vibe-coded app. You can’t vouch for a spreadsheet without checking all the spreadsheet’s formulas.

簡単にまとめると、以下のような感じでしょうか。

  • AIにデータ分析させる際の課題として、AIに十分なデータや文脈を与えることに焦点が当てられがちである(セマンティックレイヤーなど)。
  • 本当の課題は、AIの回答が正しいかどうかを検証する手段がないことである。
  • AIが作成(回答)したインサイトやグラフ等は、その正当性を簡単に確認できない。

コード生成(Claude Codeなど)の場合は、最終的にバグという形で「AIが正しかったかどうか」がわかるが(最終的には必ずそのアプリケーションを動作させるから)、データ分析のインサイトやグラフについては、「正しさ」の検証は(やはり)難しい、ということも書かれています。

さらに、Benn氏は、以下の動画[4]でもAIが生成した結果に対する信頼性について発言されています。

https://youtu.be/bMi-IBAkz8s?si=AXwkfSrge0Ods2qr

「AIが生成した分析結果を人間が心から信頼できるようになるまでには、技術的・心理的な障壁が存在する。」としています。詳細をまとめると以下とのこと。

  • 結果の検証と正確性
    • データの世界において、AIの出力(例えばグラフ)が正しいどうかを知ることは非常に難しい
    • AIがチャートを提示した場合、それが正しいかどうかを検証するには、元データを地道に見ていくしか無い(凄く時間がかかるし、そもそもAIで効率化する意味がなくなる)
  • 人間の心理的反応
  • 予測不能なエラーと制御の欠如
    • AIは、人間には理解できない「場違い」な間違いを犯すことがある(タングステンキューブ問題
    • 重要なのはエラー率のパーセンテージではなく、AIが「タングステンキューブを買うような間違いをしない」という確信である

また、この動画の最後の方では、さらに興味深い考察をBenn氏がしています。それは、「AIはBIを直接代替しない(非構造化データの存在によって「間接的」に代替する)」というものです。

どういうことか?これまでのBIツールは、基本的に構造化データに対してクエリを実行して可視化・分析するものでした。ですので、分析の対象となるデータは必然的に売上データや顧客データ等の構造化データとなります。しかし、ケースによっては、売上データより、顧客自体に商品についてのインタビューをした方が良い場合があります。ただ、インタビューを書き起こしたり録音したりしてできたデータは「非構造化データ」のため、BIツールで分析することはできません。非構造化データを構造化データにするには大変な工数がかかりますし、インタビューする顧客の数が増えれば増えるほど、その作業は非現実的なものになっていきます。

そこで生成AIの出番です。生成AIはとりあえずインタビュー動画をぶち込むだけで、動画に対する「対話」を開始することができます。要するに、非構造化データに対してすぐに分析が始められるというわけです。非構造化データ[5]に対してすぐに分析できるのだから、非構造化データの重要性が増していく一方、構造化データの重要性は減っていき、それに伴って、BIツールの価値も下がっていく…というわけです。

Benn氏いわく、「これは、ChatGPTが検索エンジンを開発してGoogleに対抗したのではなく、全く異なるアプローチ(AIに聞く)で、【情報を得る】という同じ問題を解決したのと似ている」とのこと。面白いですねえ。

知人の意見

グローバルの意見だけでなく、身近な日本企業の情報も参考にしたいところです。ちょうどいい感じの企業に務めてる知人が都合よく存在していたので[6]、AIとBIについて聞いてみました。知人の役職はアナリティクスエンジニアです。

  • SaaSを開発・提供しているITベンチャー(メガベンチャーといっていい規模)
  • データ基盤はかなり"モダン"
    • Fivetran
    • Google BigQuery
    • dbt Cloud
    • Looker
  • Google CloudのAI機能だけでデータ分析は済むんじゃないの?
    • 済まない。無理。
    • BIツールは必須
  • BIツールは今でも必要だと思うのはなぜ?
    • 正確な内容が求められるデータ分析もあるため、AIだけでデータ分析を完結することはできない
    • 経営陣もダッシュボードを見ているため、無くすことはできない
      • 経営陣が経営会議で自社の業績をいちいちAIとチャットして確認するのは考えにくい
    • AIとの対話でデータ分析を行っているユーザーはいる
      • アドホックかつチーム単位で完結するような分析など

個人的な意見

「BIツールは無くならないが、役割は変わってくる」という結論に達しました。

Tristanの意見と同じやんけ!って感じですが、実際、探索的なデータ分析は、(BIツール上級者でもない限りは)BIツールの操作より、チャット形式の方が早いし効率的だと考えます。何なら、インサイトや次にやるべき分析の提案とかまでしてくれますからね。ここに関してはゆっくりじわじわと置き換わってくると思います。

しかし、ここでちょっと踏みとどまって考えたいのが、「データ分析の目的」です。何のためにデータを分析するのか?それは「ビジネスをより良くするため」に他ならないからでしょう。営利目的で活動している以上、最終的には売上や利益を上げるか、コストを下げるか、をしたいはずです。その活動のためにデータを分析するのです。

ビジネスをより良くするためにデータを分析・可視化し、何らかのインサイトを得たり、施策・アクションが思いついた場合、(組織である以上[7])その内容を関係者に説明・報告・プレゼンテーションする必要があります。Tristan氏の記事にも「BIツールにはPresentationの役割がある」と書かれていましたが、関係者に共有する際に重要なのが、「分析内容の信頼性」[8]です。自分やチーム数名程度の共有であれば良いですが、上長や他部署、はたまたエグゼクティブを巻き込むとなると、分析内容が正しいかどうかというのはとても大事になってきます。間違った数字をもとに意思決定を下すのは、組織にとってとてもリスクだからです。

ここでBenn氏の主張が出てきます。AIが生成した結果の信頼性を検証することはとても難しい…。やはり、AIとの対話で得た結果を、そのまま関係各所に持ち込むのは、非現実的でしょう。インタビューした知人の会社でも、経営陣がダッシュボードのグラフを見ているとのことですが、Lookerを使っているので、おそらく数字の間違いがないように、LookMLで厳密に管理されているのだと想像します。LookMLの開発にはAIを使えても、最終的なアウトプットにAIポン出しはできないということですね。

ですので、AIとの対話で探索的なデータ分析をしつつ、最終的なアウトプット(検証含む)はBIツールで行うようになっていくのかと思います(やはりTristan氏の意見全乗り…)。

細かい視点を付け加えると、プレゼン時や、プレゼン後の聴講者から質問があった時に、AIに質問を投げて、その回答を待ち、そのAIの回答を見せる、という形だと、冗長で退屈な内容になると思います。やはり、グラフやダッシュボードをその場で動かす方が、早いし、相手に伝わりやすいかと…。

おわりに

いずれは、あらゆる作業をAIが完璧にやってくれる時代が来るのだと思います。しかもAIは急に進化するため、その次代がいつくるかもわかりません。ただ、大切なのは、地に足をつけ、AIの変化に振り回されることなく、冷静に技術を見定め、「この技術を自分の業務で適用したらどうなるか?(何が良くなって何が悪くなるか)」を想像することだと思います[9]

脚注
  1. 生成AIというか「MCP」がすげえって感じが書かれています ↩︎

  2. 私はリレーションはLookMLを意識した機能だと思っています ↩︎

  3. 実際、前職の同僚の技術者たちはみんな忙しそうです ↩︎

  4. とても興味深い内容なのに、ビビるくらい再生数が少ない… ↩︎

  5. カスタマーサポートの録音、店舗の顧客の導線、社内チャットの会話ログなど、分析しがいのある非構造化データは多岐にわたるかと。 ↩︎

  6. イマジナリーフレンドではない…たぶん… ↩︎

  7. 個人事業主とかは考慮してないです ↩︎

  8. 分析結果そのものではなく、分析で出てきた数値等が正しいかどうか…と言いたかった ↩︎

  9. 私は人間の重要な能力の1つに「想像力」があると思っています。 ↩︎

Discussion