Google Cloud Professional Machine Learning Engineerは何が変わったのか?
注意
この記事はChatGPTを使った要約を掲載した記事です。
前置き
11月20日からGCP Professional Machine Learning Engineerの試験内容が変更になります。
変更内容は以下から確認することができます。
(試験英語なのでぜひ英語でご確認ください)
日本語版もあります。
Google Cloudからの説明ではこのように語っています。
最新情報
Professional Machine Learning Engineer 認定試験のベータ版は、Google Cloud における AI 機能の大幅な強化に対応しています。新しい試験では、ML 問題の枠組み設定、理論的概念、従来のデータ サイエンティストの責任に重点を置かず、Google Cloud の ML サービス スイートとオープンソース フレームワークに重点を置いています。これらは、ML エンジニアが ML ソリューションの開発、トレーニング、評価、デプロイ、商品化、モニタリングに使用するものです。また、新しい試験には、説明可能で責任ある AI に対する Google の取り組みも反映されています。
試験範囲を見たのですがかなり長いです。読み込みが大変なので、ChatGPTを使って前後を比較してみたいと思います。利用するモデルはGPT-4です。
(そこはPaLMじゃないんかいと後々この記事書いてて思いました。)
なお、生成AIは試験範囲ではないようです。
生成 AI をベースとしたソリューションの開発に使用されるツールは急速に進化しているため、ベータ版試験は生成 AI には対応していません
では行きましょう。
特徴
試験の特徴を記述してもらった内容がこちらです。
全体的に、試験の範囲は、より高レベルなMLソリューションの設計と管理にシフトしており、Google Cloudが提供する低コードまたはノーコードのMLツールとサービスの適用能力をより重視するよう変化しています。また、チームワークとコラボレーションの重要性が増しており、セキュリティとエシカルなAIの実践に関する知識もより求められている傾向にあります。
変更後の範囲では以下のような傾向が見られます。
抽象度の増加: 新しい試験範囲では、より高レベルなアーキテクチャの設計とMLソリューションの管理にフォーカスが当てられています。これは、抽象的な概念理解や統合的な知識を求める傾向にあり、具体的な技術的実装よりも全体的な理解を測る内容になっている可能性があります。
新しいトピックの追加: コラボレーションや運用フェーズでの知識など、新たに強調されるトピックがいくつか追加されており、それらは試験対策として新しくカバーする必要があります。
従来のトピックの縮小または変更: 低レベル操作や具体的なツールの使用方法に関するトピックは、以前に比べて重要度が下がっているか、より一般的な知識として扱われるようになっていることが考えられます。
なるほどという感じですね。ローコードの部分が増えて、カスタムモデルに当たる部分が減ったのはデータエンジニアとしては嬉しいですね。TensorFlowの挙動とかは地味に覚えるのが大変だったので。
詳細な比較
重要な内容(以前のバージョンにおいても重要であった側面)
- Google CloudのMLサービスとAPI(AutoML、BigQuery ML、Vertex AIなど)の使用に焦点を当てており、Google CloudがアクセシブルなMLソリューションに対するコミットメントを強調しています。
- データ管理、前処理、特徴量エンジニアリングは引き続き重要であり、BigQuery、Dataflow、Vertex AI Feature Storeのようなツールの使用が依然として重視されています。
セキュリティ、プライバシー、責任あるAIの実践は継続して重要であり、倫理的なAI開発への持続的な強調を強化しています。 - モデルの監視、管理、トラブルシューティングは一貫しており、本番環境でのMLソリューションの維持の重要性を強調しています。
- データ処理、モデルトレーニング、または提供のためのMLパイプラインの設計と実装は、試験の中核要素です。
注目すべき変更点(試験範囲に加えられた調整)
- ローコードソリューションへの強調の増加: 新しい試験は、BigQuery MLやAutoMLのようなローコードソリューションにより強い重点を置いており、MLを技術的専門知識を持つさまざまなユーザーにとってよりアクセスしやすくする方向へのシフトを示唆しています。
- Jupyterノートブックでのコラボレーションとセキュリティ: 新しい試験では、Vertex AI Workbenchのようなコラボレーティブ環境内でのJupyterノートブックの使用を具体的に指定しており、コラボレーティブなデータサイエンスと安全なコーディング実践へのより大きな重点を示しています。
- MLモデルのスケーリング: MLのプロトタイプを本番環境でのフルフレッジモデルにスケーリングする実践的な側面により大きな焦点が当てられているようです。
- 試験構造の簡素化: 更新された試験は、よりシンプルな構造を持ち、MLワークフローの異なる側面(プロトタイピング、モデルのスケーリング、提供とモデルのスケーリングなど)間の明確な境界を持つようです。
高度なモデル提供とスケーリング: モデルの組織化と登録、A/Bテスト、さまざまなフレームワークを使用したモデルの提供に新しい焦点が当てられており、モデルデプロイメントが試験のより微妙な主題になっていることを示唆しています。 - トレーニング用ハードウェアの選択: トレーニングモデルに適したハードウェアを選択することへの特別な注意が払われており、ハードウェアの選択がMLソリューションのパフォーマンスとコスト効率において重要であることを強調しています。
- オーケストレーションと自動化: 更新された範囲にはMLパイプラインに関するセクションがまだ含まれていますが、エンドツーエンドの開発に焦点を当てており、パイプライン開発のより包括的な視点を示しています。
これで大分理解できたと思います。あとは、原文で足りない部分を補完してください。
まとめ
こうしてみるとデータエンジニアが取り組みやすい内容に変化しているのではないでしょうか?よりライトにML使っていってねみたいなメッセージを感じます。また、MLを実務で利用していくにはモデリング以外の部分にかける時間の方が大事だということなので、その部分が反映されていると思いました。
もし、この内容が参考になれば嬉しいです。また、こちらの内容はあくまでChatGPTで要約した内容なので実際の試験範囲も見に行ってください。では。
Discussion