📝
Amazon AppFlow をチュートリアルレベルで試してみた
Tutorial: Transfer data between applications with Amazon AppFlow - Amazon AppFlow
ドキュメントのチュートリアルでは S3 - Salesforce 間の連携ですが、今回は S3 - S3 間の連携で試してみました。
1. 送信元 S3 バケットの作成
データの送信元となる S3 バケットをデフォルト設定で作成します。

input というフォルダを作成します。

input フォルダに以下の CSV ファイルをアップロードします。
sample.csv
id,name,email,age
1,山田太郎,yamada@example.com,25
2,佐藤花子,sato@example.com,30
3,鈴木一郎,suzuki@example.com,28
2. 送信先 S3 バケットの作成
データの送信先となる S3 バケットをデフォルト設定で作成します。

output というフォルダを作成します。

3. AppFlow のフロー作成
以下の設定で作成しました。
- フロー名: my-first-appflow-tutorial
- 送信元: 手順 1 で作成した S3 バケット
- プレフィックスには input フォルダを指定
- データ形式: CSV 形式
- 送信先: 手順 2 で作成した S3 バケット
- プレフィックスには output フォルダを指定
- マッピング: すべてのフィールドを直接マッピングする
上記以外はデフォルト設定です。
4. フローの実行
AppFlow のフロー画面からフローを実行します。

実行履歴でステータスが成功になったことを確認します。

手順 2 で作成した送信先 S3 バケットの output/my-first-appflow-tutorial/ にファイルが出力されていることを確認します。

ファイルの中身は以下のような JSON 形式です。
{"id":"1","name":"山田太郎","email":"yamada@example.com","age":"25"}
{"id":"2","name":"佐藤花子","email":"sato@example.com","age":"30"}
{"id":"3","name":"鈴木一郎","email":"suzuki@example.com","age":"28"}
出力形式はフローのデータ送信先の設定で変更可能です。

DataSync との比較
S3 間の連携だけであれば DataSync と同じように感じますが、ユースケースなどが異なります。
以下の外部サイトの記事がわかりやすかったので、ユースケースなどの比較の参考にご覧ください。
AWS appFlow vs DataSync – Sharing Knowledge and programming
まとめ
今回は Amazon AppFlow をチュートリアルレベルで試してみました。
どなたかの参考になれば幸いです。
Discussion