📝

Amazon AppFlow をチュートリアルレベルで試してみた

に公開

Tutorial: Transfer data between applications with Amazon AppFlow - Amazon AppFlow
ドキュメントのチュートリアルでは S3 - Salesforce 間の連携ですが、今回は S3 - S3 間の連携で試してみました。

1. 送信元 S3 バケットの作成

データの送信元となる S3 バケットをデフォルト設定で作成します。

input というフォルダを作成します。

input フォルダに以下の CSV ファイルをアップロードします。

sample.csv
id,name,email,age
1,山田太郎,yamada@example.com,25
2,佐藤花子,sato@example.com,30
3,鈴木一郎,suzuki@example.com,28

2. 送信先 S3 バケットの作成

データの送信先となる S3 バケットをデフォルト設定で作成します。

output というフォルダを作成します。

3. AppFlow のフロー作成

以下の設定で作成しました。

  • フロー名: my-first-appflow-tutorial
  • 送信元: 手順 1 で作成した S3 バケット
    • プレフィックスには input フォルダを指定
    • データ形式: CSV 形式
  • 送信先: 手順 2 で作成した S3 バケット
    • プレフィックスには output フォルダを指定
  • マッピング: すべてのフィールドを直接マッピングする

上記以外はデフォルト設定です。

4. フローの実行

AppFlow のフロー画面からフローを実行します。

実行履歴でステータスが成功になったことを確認します。

手順 2 で作成した送信先 S3 バケットの output/my-first-appflow-tutorial/ にファイルが出力されていることを確認します。

ファイルの中身は以下のような JSON 形式です。

{"id":"1","name":"山田太郎","email":"yamada@example.com","age":"25"}
{"id":"2","name":"佐藤花子","email":"sato@example.com","age":"30"}
{"id":"3","name":"鈴木一郎","email":"suzuki@example.com","age":"28"}

出力形式はフローのデータ送信先の設定で変更可能です。

DataSync との比較

S3 間の連携だけであれば DataSync と同じように感じますが、ユースケースなどが異なります。
以下の外部サイトの記事がわかりやすかったので、ユースケースなどの比較の参考にご覧ください。
AWS appFlow vs DataSync – Sharing Knowledge and programming

まとめ

今回は Amazon AppFlow をチュートリアルレベルで試してみました。
どなたかの参考になれば幸いです。

参考資料

Discussion