🧟‍♀️

「データ分析 」- 「AIモデル開発」 比較

に公開

deep learning -> AIモデル開発 でやること

  1. 「既存モデルを使う」レベル
    例えば PyTorch や TensorFlow で提供されている学習済みモデル(ResNet, BERT, GPT系など)を読み込んで使う。
    これは deep learning を“使う”段階。画像分類や文章分類をすぐ試せる。
  2. 「自分でモデルを構築して学習させる」レベル
    ニューラルネットの基本(層の積み方、活性化関数、損失関数、最適化手法など)を理解して、自分でモデルを設計。
    例)「手書き数字(MNIST)を分類するネットワークを自作して学習させる」
    ここまでできれば AIモデルを作った と言える。
  3. 「独自の課題に合わせて工夫する」レベル
    既存モデルを自分のデータで 再学習(fine-tuning) したり、アーキテクチャを工夫する。
    例)医療画像専用のモデル、音声認識の改良版。
    研究や実務に直結するのはこのあたり。
  4. 「基盤モデルを研究・開発する」レベル
    GPTやStable Diffusionのような 巨大モデルをゼロから訓練する。
    莫大な計算資源とデータが必要で、企業や研究機関レベルじゃないと難しい。

データ分析でやること

  1. データの収集・整形(前処理)
    SQLでデータベースからデータを抽出
    CSVやログファイルなどの生データを整形(欠損値処理・異常値処理・型変換)
    Python(pandas, numpy)やRで加工

  2. 可視化・探索的分析
    matplotlibやseabornでグラフ作成
    TableauやPowerBIなどBIツールでダッシュボードを作る
    どんな傾向や相関があるかを人間が理解できる形にする

  3. 統計的手法・機械学習
    回帰分析、クラスタリング、分類モデルなどを試す
    scikit-learnでモデルを作成し、精度を評価
    A/Bテストを設計して有意差を確認

  4. ビジネス課題への落とし込み
    「広告費をどこに投下すべきか」
    「どの顧客が解約しやすいか」
    「在庫をどのくらい持つべきか」
    など、ビジネスの意思決定につなげる。


データ分析 - AIモデル制作 比較

  • データ分析の主な業務
    データ収集・整形(ETL、前処理)
    可視化・探索(グラフ、相関分析)
    統計的分析(回帰分析、検定、クラスタリングなど)
    ビジネス課題への解釈・レポーティング
    目的-> 意思決定に役立つ「知見を得る」こと

  • AIモデル制作の主な業務
    データ準備(※ここがデータ分析と大きく重なる)
    特徴量エンジニアリング
    モデル設計(深層学習や機械学習アルゴリズムの選定)
    学習・評価・チューニング
    デプロイ(実際に使える形に実装)
    目的-> 予測や分類など「自動化する仕組みを作る」こと。

  • 両者の関係性
    共通部分 → 前処理、可視化、特徴量理解などは両方で必要。
    違う部分 →
    データ分析は「分析結果を人が読む」
    AIモデル制作は「学習済みモデルをシステムに組み込む」
    だから、データ分析はAIモデル制作の一部でありつつ、単独でも成立する業務領域 と考えるのが正確。

  • まとめ
    データ分析は「AIに限らず」ビジネス分析や統計調査だけでも十分な仕事になる。
    逆にAIモデル制作は「データ分析の土台の上」にある高度な応用。

やりたいのって、
分析を通じて課題を見抜く側(データアナリスト寄り)?
モデルを実際に作って動かす側(機械学習エンジニア寄り)?

Discussion