Google I/O '25 Keynote 概要
はじめに
先日YouTubeにて開催された Google I/O '25 Keynote のまとめ記事になります!
NotebookLMに音声コンテンツ化してもらった
"Google I/O '25 Keynote" の内容をNotebookLMに音声コンテンツ化してもらったので、文書読むの面倒な方は是非、音声でインプットしてみてください!
約7分で解説してくれました。
Google I/O '25で発表された衝撃のAI進化!Geminiが拓く、私たちの未来と開発者の可能性🤖✨
Google I/O '25では、AI、特にGeminiモデルの目覚ましい進化と、それが私たちの生活や開発体験をどのように変革するかの最新情報が発表されました。基調講演では、GeminiがユニバーサルAIアシスタントへと進化し、Google検索やAndroidなどの主要プロダクトに深く統合される未来が示されました。また、開発者向けの強力なツールや、創造性を加速する生成AIの進化も多数紹介されています。
この記事では、Google I/O '25で発表されたGeminiを中心とした主要な進化と、それが私たちユーザーや開発者にもたらす新たな可能性について、初心者の方にも分かりやすく解説します。この記事を読めば、最新のGoogle AIの方向性を理解し、ご自身でAIを活用するための次のステップを見つけることができるでしょう。
Geminiモデルの驚異的な進化とその基盤🚀
Googleはこれまで以上に迅速に最高のモデルを出荷していると述べています。前回のI/O以降、Googleは十数以上のモデルと画期的な研究成果を発表し、20を超える主要なAIプロダクトと機能をリリースしました。特に注目されるのは、モデル自体の急速な進歩です。
- 性能の飛躍: 初代のGemini ProからELOスコアが300ポイント以上向上し、現在Gemini 2.5 ProはLMArenaのすべてのカテゴリでリーダーボードを席捲しています。これは最先端のAIモデルの比較において、最もよく使われる指標の一つです。
- コーディング能力: コーディングにおいても急速な進歩を遂げ、アップデートされた2.5 ProはWebDev Arenaで1位を獲得しました。これは以前のバージョンを142 ELOポイント上回る成果です。Geminiはすでに毎分数十万行のコードを生成しており、今年最も急成長しているモデルとのことです。
- 効率性と速度: Gemini FlashはGoogleの最も効率的な主力モデルであり、そのスピードとコストの低さで開発者から好評を得ています。アップデートされた2.5 Flashはほぼすべての面で進化し、主要ベンチマークで性能が向上しています。特に、同じパフォーマンスを得るためにモデルが使用するトークン数が低減され、22%の効率向上が見られたと報告されています。また、試験運用版テキスト拡散モデルであるGemini Diffusionは、従来のFlash 2.0モデルの5倍の速度で生成できるとのことです。
- 思考と推論の強化 (Deep Think): Gemini 2.5 Proはさらに改良され、強化された推論モードであるDeep Thinkが導入されます。これは、並列技術などの最先端の研究を活用し、モデルのパフォーマンスを限界まで押し上げるもので、USA Mo 2025のような難しい数学ベンチマークや競技レベルのLive Codebenchでトップの成績を収めています。
- 強力なインフラ: こうした進歩を可能にしているのが、世界をリードするGoogleのインフラです。Googleの第7世代TPU Ironwoodは、大規模な思考と推論を強化する初の設計であり、前世代に比べて10倍のパフォーマンス、ポッドあたり42.5エクサフロップスという驚異的な演算能力を備えています。このTPUは年内にGoogle Cloudのお客様に提供される予定です。これにより、LMArenaリーダーボードのトップモデルの提供が劇的に高速化され、モデル価格も大幅に下がっています。
AIが私たちの日常を変える:プロダクト統合の波🌊
Googleは研究成果を「世界中の人々にとって現実にする」ことに注力しており、Project Starline、Astra、Marinerといった初期研究プロジェクトが、様々なGoogleプロダクトに導入されています。
-
ユニバーサルAIアシスタントとしてのGeminiアプリ: Geminiアプリは、月間アクティブユーザー数が4億人を超えるなど、急速に利用が拡大しています。目標は、Geminiを「最もパーソナルかつプロアクティブで、優秀なAIアシスタントにすること」です。
- パーソナルコンテキスト: ユーザーの許可を得て、プライバシーと透明性を保ちながら、検索履歴や他のGoogleアプリ(Gmail, ドライブ, カレンダー, マップ, Keepなど)からの関連コンテキストを活用できます。これにより、過去の情報に基づいたパーソナライズされた応答や、ユーザーの興味に合わせた解説動画の作成などが可能になります。
- プロアクティブなサポート: 現在のAIの多くは受け身型ですが、Geminiはユーザーが質問する前に次の展開を予測し、サポートしてくれるようになります。例えば、物理の試験が近い学生に対して、教材やメモに基づいたパーソナライズされた問題を作成して出題するといったことが可能になります。
- エージェントモード: 膨大な物件リストから条件に合う部屋を探したり、内覧予約をしたりするなど、ユーザーの代わりに複数のステップを含むタスクを実行できます。これは、Project Marinerで培われたコンピュータ利用能力を活用しています。
- Gemini Live: 自然な音声対話が可能で、カメラや画面共有機能を使って、見ているものや共有している画面についてGeminiに質問できます。自転車の修理を手伝ってもらったり、就職面接の練習をしたりといった多様な使い方が可能です。話者の声と背景の音声を区別する能力も向上しています。
- Deep ResearchとCanvas: ファイルをアップロードしたり、GoogleドライブやGmailを探索して情報を引き出し、非常に詳細なレポートを作成できます。また、Canvasという共同制作空間では、レポートをウェブページ、図解、クイズ、ポッドキャストなど、さまざまな形式に変換できます。
-
Google検索の変革 (AIモード): Google検索は、生成AIを世界中のどのプロダクトよりも多くの人々に提供しており、AIによる概要は月間15億人を超えるユーザーに利用されています。さらに、AIモードというまったく新しい検索機能が導入されます。
- 高度な推論と深い検索: AIモードはGemini 2.5を核としており、「クエリファンアウト」と呼ばれる手法で質問をサブトピックに分割し、ユーザーの代わりに多数のクエリを同時に発行してウェブ全体を検索することで、従来よりも深い検索を実現します。リアルタイム情報、ナレッジグラフ、ショッピンググラフ、ローカルデータなども活用します。
- 動的なUIと会話形式: 検索結果はテキスト、画像、リンク、地図に至るまで、質問に合わせて動的に調整されます。質問は会話形式で進められ、フォローアップの質問で掘り下げることも可能です。
- Search Live: Project Astraのライブ機能がAIモードに導入され、Search Liveとして利用できます。Google検索がカメラであなたが見たものを認識し、役立つ情報をリアルタイムの対話形式で提供します。
- ショッピング体験の向上: AIモードは、画像検索やショッピンググラフ(500億以上の商品リスティング)から情報を取得し、ユーザーの好みや家族構成(子供の数など)を考慮した耐久性のあるラグを提案するなど、パーソナライズされたショッピング体験を提供します。試着機能では、写真をアップロードするだけで服が似合うかバーチャルで確認でき、価格追跡やエージェントによる自動購入も可能です。
-
その他のプロダクト統合:
- Google Beam: Project Starlineから派生したAIファーストの新動画通信プラットフォームです。最先端の動画モデルを使用し、2D動画ストリームをリアルな3D体験に変えます。HPと協力して今年後半に提供予定です。
- リアルタイム音声翻訳: Google Meetに直接導入されます。英語とスペイン語の翻訳がすでに提供されており、今後対応言語が増える予定です。企業向けには今年後半に提供予定です。
- Chrome連携: パソコンでウェブを閲覧する際に、閲覧中のページの文脈を自動的に理解し、Geminiがサポートしてくれます。
開発者向けの進化とツール🛠️
Google AI StudioとVertex AIでGemini APIを使って開発を進めている開発者は、前回のI/O以降、5倍以上の700万人を超えています。開発者向けのツールと機能も進化しています。
- Gemini APIの進化: 新しい2.5 Flashプレビュー版が本日よりGemini APIで利用可能になります。また、Gemini APIとVertex AIを通じて思考サマリ機能が提供されます。思考サマリは、モデルの思考プロセスをわかりやすい形式で整理し、透明性の向上やデバッグを容易にします。思考予算機能も2.5 Proに導入され、モデルが回答に使用するトークン数を制御できます。
- エージェントエコシステムの発展: Project Marinerのコンピュータ利用能力は、Gemini APIを通じて提供されます。Automation AnywhereやUiPathなどのTrusted Testerはすでにこれを利用した開発を始めており、今夏には広範囲に提供される予定です。エージェントどうしの通信に必要な**オープンプロトコル(Model Context Protocol - MCP)**も重要であり、Gemini SDKとMCPツールの互換性が発表されました。
- コーディングエージェント Jules: 最新の非同期コーディングエージェントであるJulesが公開ベータ版になりました。大規模なコードベースの複雑なタスク(古いNode.jsバージョンの更新など)を、ステップ計画作成やファイル修正を含め、数分で実行できます。GitHubとの統合も可能です。
創造性を加速する生成AI🎨🎵🎬
生成AIは、クリエイターの創造性の限界を高めています。Googleは、画像、動画、音声、音楽といった様々な生成メディア分野で革新的な技術を発表しています。
- 画像生成 Imagen 4: 高性能な最新の画像生成モデルImagen 4がGeminiアプリで利用可能になりました。微妙な色彩や細部の表現力が向上し、特に文字のデザイン能力が大きく進化しています。Imagen 4の超高速版も登場し、従来モデルより10倍高速です。
- 動画・音声生成 Veo 3: 最先端の動画生成モデルVeo 3が発表されました。映像品質や物理法則の再現度が向上し、さらにネイティブの音声生成機能も搭載しています。効果音や背景音、会話も生成でき、プロンプトを入力するとキャラクターが喋る動画を作成できます。
- 音楽生成 Lyria 2: 音楽家と共同開発したMusic AI Sandboxの基盤モデルLyriaがLyria 2に進化し、高忠実度の音楽とプロ級の音声(ソロ、合唱)を生成できます。
- AI映画制作ツール Flow: Veo、Imagen、Geminiの長所を組み合わせた新しいAI映画制作ツールFlowがリリースされました。指定した素材からクリップを生成し、厳密なカメラ制御やキャラクター・シーンの一貫性維持が可能で、シーンの延長や短縮も自由に行えます。
- 生成メディアの透明性 SynthID: AI生成コンテンツの判別が難しくなる中で、Googleは見えない透かしを埋め込むSynthIDを開発しており、これまで100億以上のコンテンツに透かしが埋め込まれました。新しいSynthID検出ツールは、コンテンツのごく一部に透かしがある場合でも検出可能です。
AIの社会への応用と新しいフォームファクタ🌐👓
AIは私たちの日常生活を豊かにするだけでなく、社会課題の解決や科学の進歩にも貢献し、新しいデバイス体験も可能にしています。
- 科学的発見の加速: Google DeepMindは、数学(AlphaProof)、研究支援(Co-Scientist)、科学知識発見(AlphaEvolve)、臨床診断支援(AMIE)、分子構造予測(AlphaFold 3)、創薬(Isomorphic Labs)など、科学の様々な分野にAIを応用し、大きな成果を上げています。AlphaFoldはすでに生物学や医学研究の標準ツールとなり、世界中で250万人以上の研究者が使用しています。
-
社会貢献とアクセシビリティ:
- 山火事検知 Viasat: マルチスペクトル衛星画像とAIを利用し、ほぼリアルタイム(20分ごと)で小さな火災も検知できるシステムを開発中です。
- 災害支援: AIを活用したドローン配送で、ハリケーンなどの緊急事態における救援活動(食料や医薬品の配送)を行いました。
- アクセシビリティ向上: Project Astraの技術を活用し、視覚障がい者の移動を支援するプロトタイプ(Airaとの提携)を構築しています。Project Astraのデモでは、ユニバーサルAIアシスタントが自転車修理や日々のタスクを支援する様子が示されました。
-
Android XRとGemini: Android XRは、ヘッドセットやグラスといった新しいフォームファクタでAIアシスタントを体験できるプラットフォームです。Samsungと共同開発されており、Qualcomm Snapdragonに最適化されています。
- Geminiの統合: Android XRデバイスでは、Geminiがユーザーの状況と意図を深く理解し、サポートします。例えば、ヘッドセット(SamsungのProject Moohan)ではマップ連携や試合観戦のサポート、グラスではカメラで見たものを認識し、リアルタイム対話や情報表示、さらにはライブ翻訳も可能になります。
- グラスの進化: Googleは10年以上にわたりグラス開発を続けており、Android XR搭載グラスは軽量で一日中着用できるよう設計されています。カメラ、マイク、スピーカーを備え、オプションのレンズ内ディスプレイに必要な情報を表示できます。Gentle MonsterやWarby Parkerが最初のアイウェアパートナーとなる予定です。
新しいGoogle AI定期購入プラン📊
Googleは、ユーザーや開発者が最先端のAIを利用できるよう、新しい定期購入プランを発表しました。
- Google AI Pro: 世界中で利用可能になる予定で、無料版に比べて使用量上限が高く、特別な機能が備わっています。GeminiアプリのPro版(旧Gemini Advanced)が含まれます。
- Google AI Ultra: 現在米国のみで利用可能ですが、近日中にグローバル展開予定の「先駆者向け」プランです。Googleの最先端AIに誰よりも早くアクセスでき、使用量上限も最大です。Ultraプランの登録者は、いずれGeminiアプリで2.5 Pro Deep Thinkモードを利用できるようになるほか、Veo 3搭載のFlowも利用可能です。YouTube Premiumと大容量ストレージも含まれています。
まとめ:AIと共に創造し、探求する未来へ✨
Google I/O '25で発表されたGeminiを中心としたAIの進化は、私たちの想像をはるかに超えるものでした。Geminiは単なる言語モデルから、私たちの生活をパーソナルに、プロアクティブに、パワフルにサポートするユニバーサルAIアシスタントへと進化しつつあります。
Google検索のAIモードやAndroid XRグラスといった新しいインターフェースは、AIをこれまで以上に身近な存在にし、情報へのアクセスやタスク実行の方法を根本から変える可能性を秘めています。また、Imagen 4、Veo 3、Flowといった生成AIツールは、クリエイターの創造性を解き放ち、これまでにない作品を生み出すことを可能にします。
開発者にとっては、Gemini APIの進化、Julesのような新しいエージェントツール、そしてModel Context Protocolのようなオープンプロトコルは、AIを活用した革新的なアプリケーションを構築するための強力な機会を提供します。
AIは、科学の進歩を加速させ、山火事対策や災害支援といった社会課題の解決、さらにはアクセシビリティ向上にも貢献しています。GoogleはAGIの実現に向けて安全かつ責任ある方法で進んでおり、数年後にはさらに驚くべき未来が現実になるかもしれないと示唆しています。
まずは、Google AI StudioやVertex AIでGemini APIに触れてみたり、GeminiアプリやGoogle検索の新しいAIモードを試してみることから始めてみてはいかがでしょうか。このAIの波に乗り、共に新しい未来を創造していきましょう!
Discussion