難しいと噂の AWS Machine Learning Engineer Associate(MLA-C01)を取得してきました
こんにちは、ツクリンクでSREエンジニアをやってるida.です。
AWS Certified AI Practitioner(AIF)の合格に続いて、機械学習エンジニアとしてのスキルをより実践的に身につけるため、AWS Machine Learning Engineer Associate(MLA-C01)を受験してきました。そして無事合格できたので、勉強した内容や感じたことをまとめておこうと思います。
AIFと比べると、より実践的で技術的な内容が問われる試験でしたが、SageMaker以外の問題を落とさないことを心がけることで合格につなげることができました。
ちなみに、今回の試験の受験費用についても前回同様、弊社の「スキルアップ支援制度」を利用して、自己負担無しで取得することができました。感謝!
AWS Machine Learning Engineer Associate(MLA-C01)とは
MLA-C01は、現在12個あるAWS認定試験のうち、ASSOCIATEレベルに分類される資格です。2023年11月にベータ版として開始され、2024年4月に正式リリースされた比較的新しい試験です。AIFがFoundationalレベルでAI/MLの基礎知識を問うのに対し、MLAはより実践的で技術的な内容が問われます。
試験の概要
- 試験期間:130分
- 試験形態:65個の問題
- 合格基準:1,000点満点中720点以上
- 料金:150 USD(2025年8月現在 20,000円)
受験時の状態と勉強内容
受験時の状態
- AWS認定試験はCLF、AIF、SAA、SOA、DVA、SAPを取得済み
- 業務はがっつりAWSを利用していますが、SageMakerを本格的に使った経験はほとんど皆無
- Bedrock や Amazon Q Developerは業務で利用中
- AI/MLの基礎知識はAIF受験時に身につけていた
- データエンジニアリングの経験は多少あり(Athena、Glue等は業務で利用経験あり)
勉強内容
WEB問題集(Cloud License)
お馴染みのWEB問題集サイトです。MLAについても豊富な問題数があり、今回もメインの教材として利用しました。
MLAは約180問ほど問題がありました。今回は6セクション(42問程度)解いた後に期限切れで解けなくなったので続きは別の教材を利用しました。
正直これだけでも十分受かるとは思います。
AWS 公式問題集(Skill Builder)
こちらもお馴染みですが、無料で20問ほど問題を解けます。WEB問題集が切れた後にこちらをとりあえず解いて解説を熟読しました。正答率は60%でした。(ここで結構絶望を感じてました。。)
Udemy
今回は途中でCloud Licenseの有効期限が切れたのでUdemyを初めて使ってみました。
65問の問題が2つあり合計130問くらいのコースでした。他のコースはわかりませんが、130問だけだとやはり不安で追加で別の教材も含めて勉強した方が安心して受験できると思いました。
他の方の受験レポートを読む
最近よく取り入れてるのですが、他の方の受験レポートはとても参考になるなと最近感じています。どういう勉強をしたのか、実際の問題に対して感じたこと、どこが難しいと感じたのか等勉強でどこに重点を置くかを把握できました。
勉強のTips
受験勉強で思っていたこと、受験中に感じたことを中心に所感になりますがまとめておこうと思います。私の受験の際も他の方のレポートでのTipsを参考にさせていただきましたので、興味があれば見てみてください🙇
1. SageMaker以外の問題は絶対に落とさない
感覚としてはSageMaker関連の問題が7割程度を占めていた印象です。
私はSageMakerを業務で開発した経験がなかったので他の問題をしっかり拾い、SageMakerをどれだけ正解するかという感じの雰囲気だったと思います。
SageMaker以外の問題だと以下の分野があったかなと思うので既存のAWS知識で比較的対応可能です。
- Bedrock関連:生成AIサービスの基本的な使い方
- データ関連:S3、Athena、Glue、Kinesis等のデータ処理
- IAM関連:権限設計、ロール設定
- SecretsManager:認証情報の管理
- セキュリティ関連:暗号化、VPC設定等
2. 運用上のオーバーヘッドは「最も簡単な構成」を選ぶ
これはもう悩んだ時の奥の手のようなものですが、「運用上のオーバーヘッドが最も少ない」という要件が出た場合、迷ったらマネージドサービスを使っており一番シンプルなアーキテクチャが答えになりやすいなと感じました。マネージドなサービスが少ないとその分管理負荷がかかりますし、サービスを多く使っていても管理工数が出てくるのでどっちのアーキテクチャかなと思ったらシンプルな構成を選ぶと正解率が上がる気がしました。(絶対にそれが正解というわけではないですが。。)
3. SageMaker系でも他分野の知識で解ける問題がある
SageMaker関連の問題が多くて、未経験の方は焦ると思うのですが、よく読むとIAMの権限設定やネットワーク構成、データの前処理など、他のAWSサービスの知識で解ける問題もいくつかあります。SageMakerの詳細を知らなくても、AWSの基本的な設計原則で判断できる問題も多いのでそこはSageMakerの問題だからと気負わずによく読んで対応しましょう。
4. アルゴリズムは覚えておく
受験しながら勉強不足だなと感じた部分①です。
アルゴリズムの特性や、どのアルゴリズムを用いたら良いか問われる問題があり撃沈しました。
復習を兼ねてまとめておきます。
カテゴリ | アルゴリズム | 特徴・実践的なユースケース |
---|---|---|
分類 | XGBoost | 構造化データに強く、高精度で高速。顧客の属性(年齢、性別、購入履歴など)から購買の可能性を予測したり、従業員データから離職リスクを予測する場面で有用 |
Random Forest | 解釈しやすく、過学習に強い。マーケティング施策の効果を分析して重要な要因を特定したり、不動産価格予測で価格に影響する要素を把握したい場合に最適 | |
Linear Learner | シンプルな線形モデル。スコアリングモデルなど解釈性が重要な与信審査や、医療診断で各要因の影響度を明確にしたい場合に使用 | |
回帰 | XGBoost | 分類同様、回帰タスクでも高精度を発揮。売上予測や需要予測で高い精度が求められる場合や、株価や商品価格の予測に活用 |
Linear Learner | 線形回帰に適用可能で計算が高速。基本的な売上トレンド分析やコスト予測モデルなど、シンプルで説明しやすいモデルが必要な場合 | |
クラスタリング | K-Means | 代表的な非教師あり学習。顧客を購買行動でセグメンテーションしたり、商品を特徴ごとにグループ化してマーケティング戦略を立てる場合に使用 |
レコメンドシステム | Factorization Machines | 協調フィルタリングに使用され、スパースなデータでも効果的。ECサイトの商品推薦や動画・音楽配信での コンテンツ推薦で、ユーザーの嗜好を学習 |
時系列予測 | DeepAR | リカレントニューラルネットワークベース。小売業での商品別売上予測や製造業での需要予測など、複数の時系列を同時に扱う場合に有効 |
テキスト分析 | BlazingText | Word2VecやText Classificationに使用。顧客レビューの感情分析や問い合わせメールの自動分類、SNSでのブランド評判分析に活用 |
LDA | トピックモデリングに使用。大量の文書から潜在的なトピックを発見したり、ニュース記事の自動カテゴリ分類、顧客の声から課題を抽出する場合に使用 |
5. 評価指標を覚えておく
受験しながら勉強不足だなと感じた部分②です。
AIやML領域で特に必要な評価指標に関する問題も多く出てきます。いくつかは覚えていたのですが網羅的に覚えてはおらず、いくつか落とした気がします。
タスク | 評価指標 | 説明・実践的なユースケース |
---|---|---|
分類 | Accuracy (正解率) |
全予測のうち正解した割合。クラス数がバランスの取れたデータで全体性能を評価したい場合(例:手書き数字認識) |
Precision (適合率) |
正例と予測したうち、実際に正例だった割合。誤検知(偽陽性)の削減が重要な場合(例:スパム検知、医療診断で健康な人を病気と判定するリスクを避けたい) | |
Recall (再現率) |
実際の正例のうち、正しく予測できた割合。見逃し(偽陰性)の削減が重要な場合(例:がん検診、不正取引検知で実際の異常を見逃すリスクを避けたい) | |
F1-score | PrecisionとRecallの調和平均。誤検知と見逃しの両方をバランス良く考慮したい場合(例:検索エンジンの関連性評価) | |
AUC-ROC | ROC曲線の下の面積。閾値を決める前にモデル全体の判別能力を評価したい場合(例:異なるモデルの性能比較) | |
回帰 | MAE | 予測値と実際値の絶対誤差の平均。外れ値の影響を抑えて全体的な予測精度を知りたい場合(例:売上予測で極端な値に左右されたくない) |
MSE | 予測値と実際値の二乗誤差の平均。大きな誤差により重いペナルティを与えたい場合(例:在庫管理で大幅な予測ミスを避けたい) | |
RMSE | MSEの平方根。実際の値と同じ単位で解釈しやすい形で誤差を評価したい場合(例:気温予測で「±2℃の誤差」として理解したい) | |
R²(決定係数) | 分散の説明率。モデルがデータの変動をどの程度説明できるかを知りたい場合(例:マーケティング効果の説明力を評価) | |
テキスト・生成 | BLEU | 機械翻訳の評価に使用。翻訳品質をn-gramの一致度で評価したい場合(例:英日翻訳システムの精度測定) |
ROUGE | 要約タスクの評価に使用。生成した要約が参照要約とどの程度重複するかを評価したい場合(例:ニュース記事の自動要約システム) | |
クラスタリング | Silhouette score | クラスタ内の密度とクラスタ間の分離度を評価。最適なクラスタ数を決定したい場合(例:顧客セグメンテーションでグループ数を決める) |
試験結果と取得した感想について
試験当日の流れについてはいつもと同じなので割愛します。
実際の試験については50分程度で全て解いて見直し設定していた問題を20分程度で見直しして退出しました。
実際の試験結果は839/1,000で合格できました🎉
ギリギリかなと思ってたので思ったよりは取れたかなと思います。
SageMaker関連の特にアルゴリズムや評価指標は勉強不足もあり迷うことも多かったのですが、「SageMaker以外は落とさない」という戦略が功を奏したと思います。特にデータ処理やセキュリティ関連の問題では確実に得点でき、全体の底上げができました。
AIFと比較すると、MLAはより機械学習にフォーカスし、よりディープな内容でした。単なる知識の暗記ではなく、実際のMLワークフローを理解していないと解けない問題が多く、勉強が必要かなと感じましたが特別難しいという印象はなかったです。
おわりに
今回はAIFに続いてMLAを受験し、AI/MLのスキルがより身についたかなと思います。試験で知識や使い方は理解しましたが実践してなんぼだと思うのでハンズオンやPoCをやってみてより理解を深めようかなと思います。
このまま全冠目指してやっていきたいのですが、秋にIPA PM試験があるので一旦そちらにシフトしていこうと思うのと、同時に英語勉強も再開しようと思うのでAWS認定試験は一旦お休みしようと思います。(とはいえ年度内全冠目指して頑張ります。)
今後AWS MLA-C01を受験される方の参考になれば幸いです!
Discussion