🐥

1年目の振り返り

2025/01/11に公開

明けましておめでとうございます!

今年から2年目になるので、1年目を振り返り、自分自身の技術的な成長や新しい挑戦について共有したいと思います。同じ分野の方の参考になれば幸いです。


1年目を振り返って

私は学生時代の経験をもとに、広告業界のデータアナリストとしてキャリアをスタートしました。私が所属する部では、データ分析基盤の構築分析業務がメインとなっており、さらに海外の企業ともやり取りをしながらプロジェクトを進める機会が多いです。そうしたグローバルな視点で多様な経験を積める環境は、学生時代に培ったスキルを活かすだけでなく、新しい技術にも挑戦できる貴重な場だと感じています。

ここでは、1年目の間(※研修期間が4月~7月くらいまであったので、実質5ヶ月ほど…)に学んだことを簡単にまとめました。技術的な詳細は各項目のリンク先にある技術ブログで紹介する予定ですので、エンジニア関連の方はぜひそちらをご覧いただけると嬉しいです。


学生時代にやっていたこと

学生時代の取り組みも参考までに載せておきます。エンジニアの方以外は読み飛ばしていただいても大丈夫です!

【データ解析と可視化(R, Python)】

  • Pythonによる傾向スコアマッチングを用いた政策効果推定

https://qiita.com/satsat/items/bc95ffb41d41d6c57bee

【Web開発(Django, Spring Boot, Streamlit, React)】

  • React × Django × OpenAI api × Zoom SDKを使ったオンラインインタビューアプリ

https://qiita.com/satsat/items/ca48bebc9519f6a1a47e

  • OpenAI api × Notion api × Streamlitを使った要件定義アプリ

https://qiita.com/satsat/items/ba6658b3a5039586e1f6

【クラウドサービス(Microsoft Azure)】

  • 海外大院生と合同でのシステム開発

https://foam-quotation-8e6.notion.site/Mats-d20036cf6a964e7591133aa97c415871?p=eef01de42e854c578572f4522ce3c02e&pm=c


1年目(7~12月)で経験した新しい技術領域

データクリーンルーム環境での分析

入社後、データクリーンルーム(DCR) を活用した分析プロジェクトに携わりました。DCRでは、プライバシーを保護しながらマーケティングに関わるデータを統合・分析できます。主にSQLを駆使して大規模なデータを処理し、匿名化されたデータに基づくインサイトを抽出。従来のデータ分析とは少し違った制約の中で、いかに分析精度を高めるかが大きなポイントとなりました。
https://www.data-dig.cci.co.jp/column/1029

マーケティング分析手法

広告効果の定量化や顧客行動の理解を目的に、マーケティングミックスモデリング(MMM)パス解析 などを活用。特にMMMは、テレビCM・SNS・検索連動型広告などの複数チャネルの投入比率を最適化する手法として注目されています。クライアント企業によって広告運用のスタイルは千差万別なので、それぞれの施策がどの程度売上やブランド認知に貢献しているのかを可視化し、経営判断に役立てる取り組みをサポートしました。
https://www.dentsudigital.co.jp/downloads/mmm-guidebook
https://www.hakuhodody-media.co.jp/aaas/news/mmmguidebook.html

機械学習関連

機械学習モデルを実装するための検証を行う機会にも恵まれました。中でも、レコメンドエンジン の設計・実装では、モデル選択やハイパーパラメータのチューニングを通じて、精度と効率を両立させるスキルを身につけられたのは大きな収穫。さらに、実用化に向けた課題の洗い出しや社内外のステークホルダーとの議論を重ねることで、開発の各フェーズを深く理解できました。
https://www.brainpad.co.jp/rtoaster/blog/about_recommend/

Azureを使ったデータ基盤構築

Azure を活用したデータ基盤構築プロジェクトにも参加しました。国内外のデータパートナーとやり取りを重ねながら、簡易的なデータ転送の仕組みやデータ暗号化技術を導入し、機密情報を安全に取り扱う環境を整備。これにより、プライバシー保護を意識した高度なデータ処理が可能になりました。特にグローバルなデータ活用の観点からは、Azureのさまざまなサービスを組み合わせる際のベストプラクティスを学べたのが大きな学びです。
https://azure.microsoft.com/ja-jp


1年を通しての学び

1年間を振り返ったときに、特に大きく感じた学びが2つあります。「アカデミックの理論をビジネス現場にどう落とし込むか」と「クライアントやパートナーとのコミュニケーション」です。学生時代に身につけた統計やプログラムの知識は、研究や実験環境では非常に効果的でしたが、実務で本当に役に立てるには工夫と柔軟な対応が必要だと痛感しました。

1. アカデミックとビジネスの違い

アカデミック(研究)の側面

  • 新たな理論や手法を提案し、実験環境で仮説を検証することが主な目的。
  • データの収集や前処理の段階でも、比較的コントロールされた環境が整っている。
  • 探究的で試行錯誤をじっくり許容できるため、時間をかけて最適解を追求しやすい。

ビジネス(実務)の側面

  • 最終的にはサービス・プロダクトや広告施策の成果を最大化することがゴール。
  • 「こんな大層な分析せずに、もっとシンプルなクロス集計でよくないか?」といった場面も多々あり、あくまでも“使える”分析を重視する必要がある。
  • 法規制や契約、プライバシー保護の面でも多くの制約があり、その上で短期間で成果を出さなければならない。

私自身、学生時代は「理論をある程度理解して実装すること」が最優先でしたが、実務では結果を素早く示し、クライアントが納得するアウトプットを出すことが何より重視されます。理想と現実のバランスをうまく取らないと、プロジェクトのスケジュールにも影響が出るので、常に柔軟な対応が必要だと学びました。

2. クライアントとのコミュニケーション

要望の把握とすり合わせ

  • ビジネスサイドとデータサイドの「言語」が異なることが多いので、まずはクライアントのビジネス要件を丁寧に理解する必要があります。
  • 「あれ、その分析手法でいいんだっけ?」「モデルの評価指標ってこれで問題ない?」という疑問は絶えませんが、そこを一つずつ確認していくプロセスが成果物の質を高めてくれるように思います。

期待値のコントロール

  • クライアントの期待と、実際に得られるデータから導ける成果に差がある場合は、その差を埋める説明が不可欠。
  • 特に担当の方がデータ畑の方でない場合は、早い段階で予想できる成果や難易度を共有し、社内議論や調整を十分に行うのが大事だとわかりました。

データをどう集めるか

  • 既存データの品質問題:欠損値や重複データなど、問題が山積みのケースは珍しくありません。前処理を地道に頑張るしかないですが、それが分析の信頼性を高める上で欠かせないプロセスだと思っています。
  • 権利関係や法的規制:プライバシー保護やGDPRなど、国や地域によって異なるルールに対応するため、社内審査の時間も考慮に入れた計画が重要でした。
  • ROI(投資対効果):どの程度のコストをかけてデータを収集・整備するか、常に社内外から問われます。フェルミ推定などで簡易的に数字を想定しておくと、説明や調整がスムーズになると感じました。

今後やりたいこと

  1. レコメンドエンジンの開発から運用までを一貫して手がける
    機械学習モデルを活用したレコメンドの仕組みを、実際のサービス上で動かす経験を積みたいです。データの取得や前処理、モデル構築、そしてユーザーへ情報を届けるUI/UXの設計まで含めて、ゼロから作り上げることで、開発サイクル全体への理解を深めたいと思っています。

  2. 提案した施策(MMMなど)の実際の効果を追跡・検証する
    マーケティングミックスモデリング(MMM)などで分析・提案した施策が、どの程度の効果を生むのかをビジネス現場でしっかりと確認し、次のアクションにつなげたいです。データから導いたアイデアが、実際に売上やブランド認知度を向上させる場面を見届けることで、分析の価値を実感しながらさらに改善サイクルを回していきたいです。

  3. プロジェクトリーダーとしてチームを牽引する
    これまでの経験を踏まえ、今後はプロジェクトリーダーとしてPJ全体をマネジメントする機会も得たいと考えています。要件整理やスケジュール調整、タスク割り振りといったチームビルディング面のスキルを磨くことで、より大きな案件を成功に導く力を身につけ、プロジェクト全体にインパクトを与えていきたいです。


上記のようなステップを通じて、単に理論を学ぶだけでなく、実際のプロダクト開発やビジネス成果に結びつく分析・施策の運用に挑戦していきたいと思っています。今後も積極的に学んだことや実践内容を共有しながら、データサイエンスの領域をさらに広げていければと思います!

Discussion