「Cloud RunとGemini、まだ使いこなせてない?」~【googlecloud】今週の人気記事TOP5(2025/10/12)
【2025/10/12】「Cloud RunとGemini、まだ使いこなせてない?」今週の人気記事TOP5(2025/10/12)
BigQueryの本番データがすべて消えた日 - 大規模障害から学んだ復旧と再発防止策
CareNetにおけるBigQueryの本番データ全削除インシデントの顛末。原因はテストコードの設定不備による本番環境データセット削除処理の実行。UNDROP SCHEMAクエリが機能せず、タイムトラベル機能とbq cp
コマンドでテーブル単位での復旧を実施。ビューやテーブル関数はクエリを再実行。再発防止策として、テスト環境からの本番環境へのアクセス制御強化、サービスアカウントの権限見直し、メタデータ管理、バックアップ体制の検討を実施。
Gemini CLI から Cloud Run にデプロイした MCP サーバに接続するベストプラクティス
Gemini CLI v0.8.0でIAP保護されたCloud Run上のMCPサーバへの接続がサポートされました。従来手法(Cloud Runプロキシ、OIDC IDトークン)の課題を解決し、よりセキュアでチーム共有しやすいベストプラクティスとして、IAP for Cloud Runとサービスアカウントなりすましを利用する方法を紹介しています。設定には、OAuthクライアントIDの作成、IAP設定の更新、サービスアカウントの作成と権限付与が必要です。Gemini CLIの設定で、authProviderType
にservice_account_impersonation
を指定することで、トークン管理が自動化されます。
適当に作ったWebアプリを雑に社内公開したい、そんなときはCloud Runがお勧め
Cloud Runを使えば、社内向けWebアプリを認証付きで簡単にデプロイできます。
Dockerfile作成後、Cloud RunとGitHubを連携させ、GUIで設定するだけでデプロイ可能。
GitHubのmainブランチ更新で自動再デプロイも実現。
最小インスタンス数を0に設定すれば、アクセスがない時の維持費はゼロ。
認証はGoogle Workspaceアカウントを利用。
セキュリティ規約に沿った利用を推奨。
AWS×GCPマルチクラウド環境でのプライベートDNS名前解決を実現する
ナレッジワークのtom氏が、AWSとGCPのマルチクラウド環境におけるプライベートDNS名前解決について解説。Route 53とCloud DNSを組み合わせ、VPN接続されたVPC間で相互に名前解決を実現する構成を紹介しています。GCPからの解決では、Cloud DNSのIP範囲(35.199.192.0/19)をAWS側で許可する必要があり、AWSからの解決では、Resolver Outbound Endpointを利用。これにより、マルチクラウド環境でのサービス連携を円滑化します。
Gemini Enterprise登場!「Gemini at Work 2025」最新速報
Googleは企業向けAIプラットフォーム「Gemini Enterprise」を発表しました。これはAIモデル、ノーコードワークベンチ、構築済エージェント群、企業データ接続、ガバナンス、パートナーエコシステムを含む包括的なプラットフォームです。
特徴は、非技術者でもAIエージェントを開発できる点、企業データを活用し文脈に合った応答が可能な点、そしてAIエージェント同士が連携する「エージェントエコノミー」を視野に入れている点です。
人材育成にも注力し、「Google Skills」や「GEAR program」を通じてAI人材の育成を目指します。
【2025/10/5】「Vertex AIとBigQuery SQL、使いこなせてる?」今週の人気記事TOP5(2025/10/05)
BigQuery SQLを劇的に進化させる!効率化と柔軟性を高める5つの新機能 🎉
BigQuery SQLの効率と柔軟性を向上させる5つの新機能が発表されました。
- 集合演算子BY NAME/CORRESPONDING: カラム名によるマッチングで、カラム順序に依存しない安全なデータ結合を実現。
- ARRAY_FIRST/LAST/SLICE: 配列操作を簡潔化し、複雑なサブクエリを削減。
- Chained Functions: 関数をチェーン形式で記述でき、クエリの可読性が向上。
- With Expression: クエリ内で変数定義を可能にし、中間結果の再利用と可読性を向上。
-
TypeOf function: 式のデータ型を返し、デバッグをサポート。
これらの新機能により、SQL記述がより安全、簡潔、柔軟になり、データ分析・エンジニアリングの生産性向上が期待できます。
Vertex AI Searchによる検索エンジンの構築
グロービス学び放題の動画検索精度向上のため、キーワード検索からVertex AI Searchを用いた検索エンジンに再構築。ゼロマッチや表示順の課題に対し、ベクトル検索・ハイブリッド検索を導入し開発・運用コストを削減。AIによるコース要約生成やキープロパティ設定で精度向上。検索DBのスキーマ変更制約に注意。今後はソート機能や略語対応を検討。フルマネージドサービスの利便性を活かしつつ、データ前処理で独自ニーズに対応。
NotebookLM × Gemini でGoogle Cloud Professional資格を2ヶ月で制覇する
NTT DATAのエンジニアが、Google Cloud Professional資格を2ヶ月で制覇した学習法を紹介。
NotebookLMで試験ガイドや対策記事を学習させ「骨格」を作り、GeminiのDeep Researchで概要資料を深掘りして教材を作成。
NotebookLMに教材を再投入し知識を蓄積。
「資格対策用」と「技術深掘り用」のNotebookLMを分け、役割分担。
模擬問題で間違えた箇所をNotebookLMに解説させ弱点を克服。
AIを「育てる」学習スタイルを提唱し、Notionでのナレッジ集約も推奨。
VertexAI Pipelines×Memorystore for Redisで機械学習のバッチ推論基盤を構築した話
Macbee Planetは、広告配信プラットフォーム3D ADの機械学習推論をオンラインからバッチ推論にリアーキテクチャし、QPS最大化を目指した。具体的には、予測結果をRedisに事前保存し、bigcacheで推論結果をキャッシュすることで、レイテンシを改善(5-20ms→1-2ms未満)し、クラウドコストを削減(機械学習推論サーバを1/2に)。VertexAI PipelinesとMemorystore for RedisをVPC経由で接続する際に苦労したが、network設定で解決。バッチ推論基盤の構築により、広告配信の制約を守りつつ、コスト削減を達成した。
【Google Cloud】3週間でAssociate Data Practitionerに合格する方法
GMOペパボのマネージャーが、Google Cloud Associate Data Practitionerに3週間で合格した学習法を紹介。まず試験を申し込み、公式試験ガイドとG-genの記事で出題範囲を確認。公式とUdemyの模擬試験を繰り返し解き、Gemini/ChatGPTで効率的に復習。試験ガイドで不安な点を洗い出し重点的に対策。試験はテストセンターで受験、120分40問で時間的余裕あり。今後は上位資格や他領域の認定資格にも挑戦予定。
Discussion