Closed14

Datadog ArchiveをBigQueryでみたい

R-AzR-Az

本業のデータをみるので、スクショとかはなし
蹴躓いたとことかを自分用の後々のメモとして残す

R-AzR-Az

1.GCS のバケットを外部テーブルとして定義してクエリする
2.BigQuery Data Transfer Service で GCS から BigQuery ストレージへデータを転送し, 標準テーブルとしてクエリする

ってことだが、基本Datadogの過去ログは漁らないので、1を採択する
お金が勿体ないのと、Transferの待ちの時間を作りたくないので
今回は非エンジニアがクエリを書くので、パーティションを意識したクエリを書かせるのはな〜と思ったが、BiqQuery慣れてる人なので許してもらおう

R-AzR-Az

テーブルの作成時には下記のような感じでワイルドカードにする必要がありそう
{バケット名}/logs/*

R-AzR-Az

テーブルの作成で先に進めん…

 Error while reading table: archive_external, error message: Cannot query hive partitioned data for table archive_external without any associated files.

データを1日分とかにしてもだめなんよな

R-AzR-Az

あーそれだ
data-setのリージョン揃えて、その上で1日分だけ抽出ならいけたわ…
でも1日ごとに調べるとかだと意味ないんだよなぁ…

R-AzR-Az

一ヶ月単位が限界か…これどうにかならんかな…

このスクラップは1ヶ月前にクローズされました