pythonからGoogleDriveAPIを叩く
はじめに
python から GoogleDriveAPI を叩けるようになるまで手順です。
GCP コンソール上での API/サービスアカウントセットアップ
GCP コンソール
処理したい GoogleDrive にアクセス権のある Google アカウントは既にある前提とします。
以下から GCP コンソールにアクセスします。
初回のアクセスの方は、チュートリアルに沿ってプロジェクトを作成します。
以降の操作は、任意のプロジェクト内の操作として実施していきます。
API 有効化
API とサービスから有効化する API を設定します。左上のハンバーガーメニューから
API とサービス -> ライブラリ
と辿っていきます。今回は、google drive api
およびgoogle sheets api
で検索してヒットする API を有効化します。
以上の操作で、このプロジェクトでの GoogleDrive およびスプレッドシートの操作の API が有効化されました。
サービスアカウントの発行
実際に API を呼び出すアカウント(認証情報)を発行していきます。
左上のハンバーガーメニューから
API とサービス -> 認証情報 -> 認証情報の作成
と辿っていきサービスアカウントを作成します。
作成できる認証情報は
- API キー
- OAuth
- サービスアカウント
の三つがあります。
Robot 実行的なことをさせるのであれば、基本的にはサービスアカウント発行で良いと思います。
認証情報の違いについては、以下の記事でわかりやすくまとまっているので、是非参照してください。
認証キーの発行
鍵(キー)メニューから認証キーを発行します。
JSON 形式を選択し発行しましょう。
処理対象となる GoogleDrive フォルダへのアクセス権付与
認証情報のトップページに、作成したサービスアカウントの Email アドレスが表示されているのでコピーします。
GoogleDrive で操作したいフォルダにコピーしたメアドで権限付与します。
GoogleDrive 上のフォルダで 右クリック -> 共有 でメアドを入力して権限付与しましょう。
python から API を呼び出す
ここまでの操作で、 API 有効化とサービスアカウントの発行および認証情報の取得が完了したので、あとはコードを書いていきます。
python3.8.7
で動作確認しています。
ライブラリインストール
pip install google-api-python-client
セットアップ
まず、任意のパスに配置された認証情報を読み込みます。
必要なライブラリをインポートします
import glob
import json
import os
import pandas as pd
from apiclient.http import MediaFileUpload, MediaIoBaseDownload
from genericpath import exists
from google.oauth2 import service_account
from googleapiclient.discovery import build
from googleapiclient.errors import HttpError as HTTPError
from oauth2client.service_account import ServiceAccountCredentials
import io
任意のパスに配置したサービスアカウントの認証情報を取得します。
# 認証トークンJSONを取得
credential_folder_path = 'credential_folder_path/'
files = glob.glob(f'{credential_folder_path}/*.json')
try:
jsonf = files[0]
except Exception as e:
print('Error: Get Google Drive API Credential')
raise e
GoogleDrive 操作をするためのインスタンスを作成します。
SCOPES で操作する範囲の API エンドポイントを指定しています。
SCOPES = [
'https://www.googleapis.com/auth/drive',
'https://www.googleapis.com/auth/spreadsheets']
# SHARE_FOLDER_ID = 'your folder id'
sa_creds = service_account.Credentials.from_service_account_file(self.jsonf)
scoped_creds = sa_creds.with_scopes(SCOPES)
drive_service = build('drive', 'v3', credentials=scoped_creds)
これで準備が整いました。
実際にお試し操作していきます。
認証用 JSON ファイルを環境変数として扱いたい場合
コンテナイメージに認証情報を含めたくない等の理由で、認証情報を環境変数として扱いたい場合があると思います。
その場合は。以下のようなシェルスクリプトで 1 行の文字列として環境変数に持たせることが可能です。
#!/bin/bash
# config/credentials/以下のjsonファイルを平文にして.envに追加
env_name='GOOGLE_SERVICE_ACCOUNT_CREDENTIAL'
json=$(cat config/credentials/*.json | tr -d "\n")
env_line="${env_name}=${json}"
echo -e "\n" >> .env
echo "$env_line" >> .env
この環境変数の文字列を一度ファイルとして保存してあげれば、前章と同様に認証できる状態になると思います。
(ファイル化挟まなくても、json.load()経由ででうまく認証させられるはずなのですが、
私はうまく処理できなかったので妥協してファイルに落としています。orz)
pd.DataFrame をスプレッドシートとしてアップロード
tmp_csv_file_path = './tmp.csv'
parent_folder_id = 'xxxxxxx' # アップロード先フォルダID。https://drive.google.com/drive/folders/xxxxxxxxxx <- ここの部分
df.to_csv(tmp_csv_file_path , index=False)
file_metadata = {
'name': name,
'parents': [parent_folder_id],
'mimeType': 'application/vnd.google-apps.spreadsheet',
}
media = MediaFileUpload(
tmp_csv_file_path ,
mimetype='text/csv',
resumable=True
)
response = drive_service.files().create(
body=file_metadata, media_body=media, fields='id'
).execute()
# tmpファイルの削除
os.remove(tmp_csv_file_path)
GoogleDrive 上のファイルを pd.DataFrame として読み込み
file_id = 'xxxxxxx' # 読み込むファイルのID。https://drive.google.com/drive/folders/xxxxxxxxxx <- ここの部分
request = drive_service.files().get_media(fileId=file_id)
fh = io.BytesIO()
downloader = MediaIoBaseDownload(fh, request)
done = False
while done is False:
status, done = downloader.next_chunk()
return pd.read_csv(io.StringIO(fh.getvalue().decode()))
ファイルの削除
ile_id = 'xxxxxxx' # 削除するファイルのID。https://drive.google.com/drive/folders/xxxxxxxxxx <- ここの部分
self.drive_service.files().delete(
fileId=file_id
).execute()
特定フォルダ以下の yyyymm フォルダ以下を調べて、 csv を dict list で取得
p_folder_id
以下の yyyymm フォルダ以下の csv を取得
folder_file_dict_list = []
condition_list = [
f'parents in "{p_folder_id}"',
'trashed = false',
'mimeType = "application/vnd.google-apps.folder"'
]
conditions = ' and '.join(condition_list)
response_folders = self.drive_service.files().list(
supportsAllDrives=True,
includeItemsFromAllDrives=True,
q=conditions,
fields="nextPageToken, files(id, name, mimeType, fullFileExtension)").execute()
for folder in response_folders.get('files', []):
# [フォルダ かつ 数値のみ かつ 6桁で構成される文字列]の条件でyyyymmフォルダ判定
if (folder.get('name').isdecimal() and len(folder.get('name')) == 6):
folder_id = folder.get('id')
condition_list = [
f'parents in "{folder_id}"',
'trashed = false',
'mimeType = "text/csv"'
]
conditions = ' and '.join(condition_list)
response_files = self.drive_service.files().list(
supportsAllDrives=True,
includeItemsFromAllDrives=True,
q=conditions,
fields="nextPageToken, files(id, name, mimeType, fullFileExtension)").execute()
# 取得したcsvをリストに格納
for file in response_files.get('files', []):
# 条件指定できるmimeTypeだけでは絞りきれないので、fullFileExtensionで拡張子判定
if (file.get('fullFileExtension') == 'csv'):
print(f"Found folder: {folder.get('name')} ({file.get('id')})")
print(f"Found file: {file.get('name')} ({file.get('id')})")
folder_file_dict_list.append(
{
'folder_id': f'{folder.get("id")}',
'folder_name': f'{folder.get("name")}',
'file_id': f'{file.get("id")}'
'file_name': f'{file.get("name")}'
})
スプレッドシート操作
(体力切れしたので割愛)
API ドキュメント
利用しているパラメータについて、詳細は公式ドキュメントを見ましょう。
update()
による PATCH 操作は、csv ファイルで試行したところ意図しない変更結果になってしまったので、PATCH でなく削除してアップロードがおすすめです。
PyDrive
ラッパーライブラリもあるみたいです。
API 直叩きしたほうが、他言語で API 呼ぶ時に転用できる知識になるから良いかなと思っているんですが、それを超える便利さがこのライブラリにあるかもしれません。
しかし、体力切れなのでまた今度確認します。
利用したことある方いればコメントで良さげかどうか教えてください。
Discussion