Closed14
Datadog ArchiveをBigQueryでみたい
本業のデータをみるので、スクショとかはなし
蹴躓いたとことかを自分用の後々のメモとして残す
神
ログはGCSに保存している
1.GCS のバケットを外部テーブルとして定義してクエリする
2.BigQuery Data Transfer Service で GCS から BigQuery ストレージへデータを転送し, 標準テーブルとしてクエリする
ってことだが、基本Datadogの過去ログは漁らないので、1を採択する
お金が勿体ないのと、Transferの待ちの時間を作りたくないので
今回は非エンジニアがクエリを書くので、パーティションを意識したクエリを書かせるのはな〜と思ったが、BiqQuery慣れてる人なので許してもらおう
これを見ながらやる
テーブルの作成時には下記のような感じでワイルドカードにする必要がありそう
{バケット名}/logs/*
テーブルの作成で先に進めん…
Error while reading table: archive_external, error message: Cannot query hive partitioned data for table archive_external without any associated files.
データを1日分とかにしてもだめなんよな
data-setのリージョンか?!
違った?
あーそれだ
data-setのリージョン揃えて、その上で1日分だけ抽出ならいけたわ…
でも1日ごとに調べるとかだと意味ないんだよなぁ…
一ヶ月単位が限界か…これどうにかならんかな…
あ、これCLIならいけるとかない?
多分コンソールからだとコンソール側でタイムアウトで切られてたんかな…?
解決
このスクラップは1ヶ月前にクローズされました