🚜

Create MLのモデルはなぜ小さいのか 〜coremltoolsでパイプラインモデルの中身をのぞいてみる

6 min read

GUIベースで簡単に機械学習モデルがつくれてしまうCreate MLですが、その簡単さとは裏腹に実はPytorchやTensorFlowでゼロからモデルを構築・学習するよりも優れている点もあります。そのひとつが、生成されるモデルのサイズがとにかく小さい点です。

TensorFlowで作られたInception v3の学習済みCore MLモデルが約100MBものサイズがあるのに対して、Create MLで作成した画像分類モデルは約17kB程度。なんと5000分の1以下です。

なぜCreate MLで生成する画像分類モデルはこれほど小さく済むのでしょうか。順を追って解明していきましょう。

Create ML と Core ML のパイプライン機能

まず、Create MLが生成する画像分類モデルは、特徴抽出モデル+画像分類モデルの2つのモデルから構成されるパイプラインモデルとなっています。

パイプラインモデルについてはこちらの記事で詳しく解説しています。

https://zenn.dev/shu223/articles/coreml-pipeline

coremltoolsを使って実際に確認してみましょう。Create MLで作成したCore MLモデルを読み込み、

createml_model_path = './HogeClassifier.mlmodel'
spec = coremltools.utils.load_spec(createml_model_path)

パイプラインとして含むモデルの数をprintすると、

print(len(spec.pipelineClassifier.pipeline.models))

この出力は「2」となります。

これは、このCreate ML製モデルが2つのモデルから構成されるパイプラインモデルであることを示しています。

Vision Feature Print

ここで、パイプラインを構成するモデルのタイプを調べてみると、

print(spec.pipelineClassifier.pipeline.models[0].WhichOneof("Type"))
print(spec.pipelineClassifier.pipeline.models[1].WhichOneof("Type"))

次のように出力されます。

visionFeaturePrint
glmClassifier

この結果は、一番目の特徴量抽出モデルがVision Feature Printと呼ばれるiOS自体に含まれているモデルで、二番目の分類モデルがGLMClassifierと呼ばれるCreate MLによって学習・生成され、.mlmodelファイルに含まれるモデルであることを示しています。

このように、Create MLが生成する画像分類(Image Classification)モデルは、特徴抽出部としてiOSにあらかじめ組み込まれているVision Feature Printを利用し、.mlmodelファイルには特徴抽出部を含む必要がないため、非常にサイズが小さく済んでいたのです。

Vision Feature PrintとLinked Model

iOSにビルトインされているVision Feature Printは、次のように複数のImage Classifierで利用されます。

1つの特徴抽出器を2つの画像分類モデルで共有

このようにダイナミックリンクライブラリのように動的にリンクできるモデルをLinked Modelと呼びます。

https://zenn.dev/shu223/articles/coreml-linkedmodel

Vision Feature Printの一次情報

Vision Feature Printについてはcoremltoolsリポジトリのmlmodel/format/VisionFeaturePrint.protoprotobufmessageとしての仕様を確認できるほか、apple.github.io/coremltools/coremlspecificationにもドキュメントがあります。

またWWDCのセッションでも、Vision Feature PrintVision FeaturePrint.Scene)についての言及があります。Create MLではVision FeaturePrint.Sceneと呼ばれる学習済みモデルをベースに転移学習を行っていること、Vision FeaturePrint.Sceneは巨大なデータセットで学習したモデルで、1000カテゴリ以上の予測が可能であること、あらかじめデバイスに載っていること、Appleデバイスに最適化されていること、継続的に改善されていくこと、といった内容が解説されています。

まとめ

以上、Create MLが生成する画像分類モデルはパイプラインモデルであり、特徴抽出器としてはiOSにあらかじめ組み込まれているVision Feature Printが使用しているため、アプリが持つモデルは非常に小さく済んでいる、ということを解説しました。

参考書籍

https://shu223.booth.pm/items/1723495

目次

第1章 準備
  • 1.1 Core ML Toolsとは
  • 1.2 Core ML Toolsの環境構築
第2章 Core ML Toolsはじめの一歩
  • 2.1 2行のコードで学習済みモデルをロードする
  • 2.2 2行のコードでCore MLモデルに変換する
  • 2.3 変換したモデルを.mlmodelファイルとして保存
第3章 Core MLモデル作成の基礎
  • 3.1 HDF5ファイルを読み込む
  • 3.2 Core MLモデルに変換する
  • 3.3 Core MLモデルの入力の型を変更する
  • Core MLモデルから自動生成されるSwiftコード
  • Visionはどのように画像分類モデルを判定するか?
第4章 オンデバイス学習 - UpdatableなCore MLモデルの作成
  • 4.1 モデルのパーソナライゼーション
  • 4.2 ベースとなるモデルの作成
  • 4.3 Updatableなモデルに変換する
  • 4.4 損失関数をセットする
  • 4.5 最適化アルゴリズムをセットする
  • 4.6 エポック数をセットする
  • 4.7 モデルを保存する
第5章 オンデバイス学習 - iOSで学習
  • 5.1 MLUpdateTask
    • 5.1.1 mlmodelc
    • 5.1.2 MLBatchProvider, MLArrayBatchProvider
    • 5.1.3 MLTask
    • 5.1.4 オンデバイスモデル更新タスクの全体感
  • 5.2 学習データの準備
  • 5.3 学習タスクの実行
  • 5.4 オンデバイスで学習したモデルを保存する / MLUpdateContext, MLWritable
  • 5.5 推論処理の実行
第6章 TensorFlowモデルの変換 - 基礎編
  • 6.1 tfcoreml
  • 6.2 tfcoremlを用いたCore MLモデルへの変換(最小実装)
    • 6.2.1 学習済みモデル(.pbファイル)を読み込む
    • 6.2.2 出力テンソルの名前を取得する
    • 6.2.3 tfcoremlを用いて変換する
  • 6.3 より扱いやすいCoreMLモデルに変換する
    • 6.3.1 クラスラベルを指定する
    • 6.3.2 入力の型を画像に変更する
  • 6.4 iOSで推論を実行
  • 6.5 入力画像の前処理を指定する
第7章 TensorFlowモデルの変換 - 画風変換モデル
  • 7.1 学習済みモデルからグラフ定義を読み込む
  • 7.2 変換に必要なグラフの情報を取得する
    • 7.2.1 入力テンソルの名前を取得する
    • 7.2.2 出力テンソルの名前を取得する
  • 7.3 tfcoremlを用いて変換する
    • 7.3.1 入力テンソルのshapeを指定する
  • 7.4 Core MLモデルの出力の型を変更する
  • 7.5 iOSで画風変換を実行
    • 7.5.1 複数の入力を持つCore MLモデルをVisionで使う
    • 7.5.2 出力画像を取得する
第8章 Flexible Shape - 超解像モデル
  • 8.1 Flexible Shapeとは/使いどころ
  • 8.2 超解像モデルをCore MLモデルに変換する
  • 8.3 Flexible Shapeを適用する
  • 8.4 iOS側での推論処理の実行
第9章 Core MLモデルのサイズを小さくする
  • 9.1 本章で利用する感情認識モデルについて
  • 9.2 重みを16ビット化する
    • 9.2.1 16ビット化が推論結果の精度に与える影響
    • 9.2.2 Core MLモデルを16ビット化する手順
  • 9.3 クォンタイズ
  • 9.4 iOSでの推論結果の比較
  • 9.5 さらなるモデルサイズ削減
    • 9.5.1 ルックアップテーブルを利用した量子化
    • 9.5.2 モデルの一部を共通化
第10章 パイプラインモデルとリンクモデル(Linked Model)
  • 10.1 パイプラインの構築
    • 10.1.1 coremltools.models.pipelineモジュール
    • 10.1.2 PipelineClassifierオブジェクトの生成
    • 10.1.3 パイプラインにモデルを追加
    • 10.1.4 MLModel オブジェクト生成
  • 10.2 リンクモデル(LinkedModel)
    • 10.2.1 リンクモデルとは/リンクモデルを使用するメリット
    • 10.2.2 パイプラインとリンクモデル
    • 10.2.3 リンクモデルの作成方法
  • CreateMLのモデルはなぜ小さいのか
    • CreateMLとパイプライン
    • Vision FeaturePrint
第11章 モデルの可視化
  • 11.1 Netron
  • 11.2 coremltoolsのvisualize_spec
  • 11.3 TensorBoard
    • 11.3.1 TensorFlowモデルのグラフを可視化
    • 11.3.2 Kerasでの学習状況を可視化
  • 11.4 Kerasのplot_model
第12章 mlmodelファイルフォーマット
  • 12.1 mlmodelファイルフォーマットを理解するメリット
  • 12.2 .protoファイルの読み方
  • 12.3 coremltoolsとprotobuf
  • 12.4 protobuf API
付録A coremltools逆引きリファレンス
  • A.1 MLModelオブジェクトを生成する
    • .mlmodelファイルから生成する
    • spec(Model_pb2.Model)から生成する
  • A.2 モデルのspec(Model_pb2.Model)を取得する
    • .mlmodelファイルから取得する
    • MLModelオブジェクトから取得する
  • A.3 .mlmodelファイルの保存・読み込み
    • .mlmodelファイルを読み込む
    • .mlmodelファイルとして保存する
  • A.4 NeuralNetworkBuilderを生成する
  • A.5 モデルの中身を調べる
    • モデルを可視化(ビジュアライズ)する
    • モデルのバージョン(Specification Version)を確認する
    • モデルのdescriptionをログに出力する
    • ネットワークの情報をログに出力する
    • NeuralNetworkBuilderでモデルの入力・出力形式を確認する
    • モデルのレイヤー一覧を出力する
    • モデルの中間層の入出力形式を調べる
  • A.6 Core MLモデルにクラスラベルを与える
    • ラベル文字列の配列を渡す
    • クラスラベルファイルのパスを渡す
  • A.7 モデルの入力・出力をカスタマイズする
    • 入力・出力名を指定する
    • 変換時に入力の型を画像型にする
    • 変換済みモデルの入力・出力の型を画像型にする
    • 入力テンソルのshapeを指定する
    • 入力画像の前処理を指定する
  • A.8 モデルサイズを圧縮する
    • 重みを16ビット(半精度)化する
    • 重みをクォンタイズする
  • A.9 オンデバイス学習関連
    • モデルがUpdatableかどうかを調べる
    • Updatableなレイヤー一覧を出力
    • Updatableなモデルに変換する
    • 学習で使用する損失関数をセットする
    • 損失関数のサマリを確認する
    • 学習で使用する最適化アルゴリズム(オプティマイザ)をセットする
    • 最適化アルゴリズムを確認する
    • エポック数をセットする
  • A.10 FlexibleShape関連
    • FlexibleShapeの適用可否を確認する
    • 入力・出力の画像サイズを範囲で指定する
    • 入力・出力に複数の画像サイズを指定する
  • A.11 misc.
    • 利用中のcoremltoolsのバージョンを確認する

Discussion

ログインするとコメントできます