Google Cloud Next '26 Day1基調講演レポート ― エージェント時代を支える「統合スタック」の正体
ラスベガスで開催されたGoogle Cloud Next '26の基調講演を、Agentic Blueprintの5つのレイヤー構造に沿ってエンジニア目線で速報レポートします。
Table of contents
author: kuribo-
はじめに
システム開発部のkuribo-です。 (4月から心機一転、システム開発部に所属しています!)
今回はラスベガスで開催された Google Cloud Next ‘26 の初日基調講演について、現地での興奮をそのままにレポートします。
去年までのNextは「AIで何ができるか」という可能性の提示が中心でしたが、今年は明らかにフェーズが変わりました。Google Cloud CEOのThomas Kurianが冒頭で放ったこの一言が、すべてを物語っています。
「パイロット(試験運用)の時代は終わり、エージェントの時代が到来しました」
驚くべきことに、Google Cloudの顧客の 約75% が既にAI製品を本番環境で運用しているとのこと。もはや「試す」段階ではなく、「AIを全社的な本番環境にいかに安全に、かつ大規模にスケールさせるか」 が今年のテーマです。
本記事では、Thomas Kurianがクロージングで提示した Agentic Blueprint(エージェンティック・ブループリント) という5つのレイヤー構造に沿って、エンジニア目線で発表内容を整理していきます。
プロローグ:AIと人間が共鳴したオープニング
基調講演は、アーティスト Jase Hudson によるライブパフォーマンスから始まりました。
これが単なる演出ではなく、今年のNextの技術スタックを凝縮したデモンストレーションになっていたのが非常に心憎い演出でした。
- Music AI Sandbox:音楽制作の「楽器」としてAIを活用。
- Gemini:演奏をリアルタイムに聴き取り、背景映像のコードをその場で生成。
- MediaPipe:奏者の指の動きをトラッキングし、映像パラメータに反映。
「AIはバックエンドの裏方ではなく、人間と並んでステージに立つコラボレーターである」というメッセージが、言葉を使わずに会場全体へ浸透していくのを感じました。
Sundar Pichai が示した「桁違い」の投資と成果
続いて登壇したのは、Google入社22周年を迎えた Sundar Pichai です。彼はAIインフラへの投資規模を具体的な数字で示し、会場を圧倒しました。
| 項目 | 2022年実績 | 2026年予測 |
|---|---|---|
| 設備投資(CapEx) | 310億ドル | 1,750〜1,850億ドル |
さらに、2026年には機械学習コンピューティングの半分以上がクラウドビジネスに割り当てられる とのこと。Googleが培ってきた最強のインフラを、惜しみなく外部へ提供していく姿勢が明確になりました。
Google自体が「AI活用の最大のショーケース」
Sundarは、Google社内での驚異的なAI活用実績も公表しました。
- コーディング:新規コードの 約75% がAI生成。
- スピード:自律エージェントの活用により、複雑なコード移行が従来の 6倍の速さ で完了。
- マーケティング:納期を 70%短縮 し、コンバージョン率を 20%向上。
「AIがコードを書き、エンジニアがそれをレビュー・承認する」というスタイルが、すでに世界最高峰の開発チームで当たり前になっている事実は、私たちエンジニアにとっても大きな刺激です。
Layer 1:AI Hypercomputer ― 「データセンター全体を一つの計算機に」
インフラ担当の Amin Vahdat のセッションで最も印象的だったのは、コンピューティングの再定義です。
「エージェント時代において、コンピューティングはもはやチップ単体ではなく、データセンター全体を指すのである」
第8世代TPUの登場:学習と推論の「二極化」への回答
今回の目玉は、TPUがついに 学習用と推論用の2モデルに分化 したことです。
| モデル | 役割 | 特徴 |
|---|---|---|
| TPU 8T | 学習 (Training) | ポッド性能が前世代比 約3倍。121エクサフロップスの怪物。 |
| TPU 8I | 推論 (Inference) | メモリキャッシュをシリコン上に配置し「メモリの壁」を突破。レイテンシ 1/5。 |
エージェントが思考ループを回す際、最大のボトルネックは「メモリ帯域」です。推論特化の TPU 8I は、まさにエージェント時代の現場ニーズに対する真っ向からの回答と言えます。
オープンなハードウェア戦略
Googleは「TPU一本槍」ではありません。
- Google Axon N48:カスタムArm CPU。x86比で価格性能比2倍。
- NVIDIA Blackwell NVL72:Google Cloudが業界最速レベルで提供開始。
「NVIDIA GPUにとっても好ましいクラウドである」と明言したことは、CUDA資産を持つ多くの開発者にとって心強いメッセージでした。
Layer 2:Agentic Data Cloud ― 「コンテキストのない推論はただの推測」
Kotik Narayan は、エージェントの知能を支える「信頼できるデータ(Trusted Context)」の重要性を強調しました。
1. Knowledge Catalog:データの「自動エージェント対応化」
GCSにファイルを置いた瞬間に、Geminiが内容を自律的に理解し、タグ付けやエンリッチ化、関係性のマッピングを自動で行います。「データパイプラインを組む」という重労働が、ついにAIによって自動化される兆しが見えてきました。
2. Cross-Cloud Lakehouse:禁断のマルチクラウド分析
個人的に最も驚いたのがこれです。AWSやAzure上のデータを、Google Cloudに移動させることなく直接分析可能 になります。
- egress fees(データ転送料)ゼロ
- Apache Icebergベースのボーダレスな接続
「データを集める」のではなく「分析エンジンがデータの場所へ行く」という発想の転換は、マルチクラウドが当たり前のエンタープライズにとって救世主となるでしょう。
Layer 3:Agentic Defense ― Wizの統合による「マシンスピード」の防御
セキュリティ担当の Francis De Souza が示したのは、攻撃の劇的な高速化です。脆弱性が悪用されるまでの時間は、今や 「マイナス7日(パッチ公開前)」。
この脅威への決定打として発表されたのが、WizのGoogle Cloudへの正式参加 です。
Wiz AI-APP の自律防御デモ
会場が最も沸いたデモの1つです。Red(攻撃検証)、Blue(防御)、Green(調査・修正) の3つの専門エージェントが連携します。
- Red が環境内の脆弱性を発見・実証。
- Green がその影響範囲を秒速で調査。
- Green がコーディングエージェントにパッチ案を送り、ソースコードレベルで自動修正が完了。
人間が気づく前に脆弱性が塞がれる、文字通り「マシンスピードの防御」が実現していました。
Layer 4:Gemini Enterprise Agent Platform ― 運用のミッションコントロール
エージェントをPoCで終わらせないための、本番管理プラットフォームです。
- マルチモデル対応:Gemini 3.1に加え、Claude Opus 4.7 も正式サポート。
- Agent Registry:組織内の全エージェントとスキルを管理する単一のコントロールポイント。
- Model Armor:プロンプトインジェクションや機密データ漏洩を防止する盾。
また、Apple が次世代Siriの基盤としてGoogleを 優先クラウドプロバイダー に選定したというニュースも、このプラットフォームの信頼性を裏付ける大きなトピックでした。
特別セッション:ショーン・ホワイトが示した「統合スタック」の真価
中盤、オリンピック金メダリストの ショーン・ホワイト が登壇しました。 一見セレブリティ枠に見えますが、実は今回のBlueprint全レイヤーを使い切る高度なデモでした。
- DeepMind 開発の専用モデルで、過去の2D映像から3Dポーズを完全復元。
- TPU で計算された飛行力学データを Gemini が解析。
- 3秒に満たない「スイッチ・バックサイド・ダブルコーク1440」の回転軸のズレ(コーク)を数値化し、成功の秘訣を特定。
「特定モデル → TPU学習 → プラットフォーム統合 → UIでの可視化」という縦の繋がりを、スポーツという身近な題材で見事に証明していました。
Layer 5:Agentic Task Force ― 現場を変える専門エージェント群
最後は、ユーザーが直接触れるアプリケーションレイヤーです。
- YouTube TV:100%のユーザー対応を音声エージェントで実施。わずか 6週間 で本番デプロイを完了。
- Workspace Intelligence:Gmail、ドキュメント、ドライブを横断してコンテキストを維持。デザイナーが作ったような質感のスライドを、HubSpotのライブデータを引用しながら数秒で自動生成。
エンジニア目線での考察:3つのキーワード
今回のNextを通じて感じた、今後の技術トレンドの核心は以下の3点です。
- 「オープン」への完全なシフト: 自社囲い込みではなく、Claude、NVIDIA、AWS/Azureとの共存を「正規の推奨構成」として打ち出してきたGoogleの姿勢は、極めて実利的で信頼できます。
- 「ガバナンス」がAI運用の中心に: 何ができるか は解決済みで、これからは 誰がどう管理し、どう守るか(Agent RegistryやWiz) がエンジニアの主戦場になります。
- 「エージェント・オーケストレーション」: 単一のチャットボットではなく、研究・分析・戦略・開発などの「専門エージェントの群(Task Force)」を連携させる、マイクロサービス的な設計思想が必須になります。
まとめ
Thomas Kurianは、こう締めくくりました。
「The platform is ready. Now, what will you build?(プラットフォームは整いました。さて、あなたは何を構築しますか?)」
エージェントを本番環境で回すための材料は、インフラからセキュリティまで全て出揃いました。残された問いは、私たちエンジニアがこの統合スタックの上で、いかに価値あるシステムを再構築するか、という点に尽きます。
プラットフォームが整った今こそ、最高に面白い開発の時間が始まろうとしています!
参考リンク
※本記事は、ジーアイクラウド株式会社の見解を述べたものであり、必要な調査・検討は行っているものの必ずしもその正確性や真実性を保証するものではありません。
※リンクを利用する際には、必ず出典がGIC dryaki-blogであることを明記してください。
リンクの利用によりトラブルが発生した場合、リンクを設置した方ご自身の責任で対応してください。
ジーアイクラウド株式会社はユーザーによるリンクの利用につき、如何なる責任を負うものではありません。