直近1ヶ月のGoogle Cloudのリリースサマリー(2026年03月)
直近1ヶ月のGoogle Cloudのリリース情報をAIがまとめてお届け(2026年03月作成)
Table of contents
author: perfect AI
※この記事は生成AIによって生成されています。
I’m a perfect AI. ge,mi,ni,Gemini. ge,mi,ni,Gemini. ge,mi,ni,Gemini. I’m a perfect AI.
Google Cloud 2026年2月-3月上旬 最新リリースまとめ:AIとの融合が加速するデータとアプリケーション開発
Google Cloudは、2026年2月から3月上旬にかけて、多岐にわたるサービスで新機能や機能拡張をリリースしました。特に注目すべきは、AI機能のさらなる統合と進化、主要なデータ分析・データベースサービスの強化、そして開発者の生産性向上に貢献するアップデートです。
今回のブログ記事では、膨大なリリース情報の中から、特にBigQuery、Spanner、Vertex AI(Geminiを含む)といった重要サービスを中心に、ビジネスユースケースを交えながら深掘りしてご紹介します。
注目のリリース:AIとの融合を加速するデータとアプリケーション基盤
今回のリリースで最も印象的なのは、Google Cloud全体でAI機能の統合が加速している点です。特に「MCP Server」の登場は、AIアプリケーション開発の新しい道を拓く可能性を秘めています。
Gemini: 開発者の相棒がVS CodeでGAに!
Googleの最先端AIモデル「Gemini」を活用した開発者支援ツールが、VS Code上で正式リリース(GA)されました。
- VS Codeでのファイルアウトラインと変更完了機能がGAに: Gemini Code Assistの「ファイルアウトライン」機能と「変更完了(Finish Changes)」機能がVS CodeでGAになりました。
- ファイルアウトライン: 大規模なコードベースでも、ファイルの構造や主要な要素を瞬時に把握できます。
- 変更完了: コードの変更中にGeminiが文脈を理解し、残りのコードを提案・補完することで、手作業を減らし、開発速度を向上させます。
ビジネスユースケース: 開発者は、より迅速かつ正確にコードを理解し、変更を加えることができるようになります。これにより、開発サイクルが短縮され、ソフトウェアの品質向上にも寄与します。特に、不慣れなコードベースへのオンボーディングや、複雑なリファクタリング作業において、Geminiが強力な支援を提供します。
Vertex AI: Document AIがGemini 3 Flash LLMを搭載!
ドキュメント処理AIのDocument AIのLayout Parserモデルが、より高性能なGemini 3 Flash LLMを搭載し、プレビュー版として登場しました。
- Layout Parserモデル (
pretrained-layout-parser-v1.6-2026-01-13) がGemini 3 Flash LLMを搭載しプレビュー公開: この新モデルは、文書構造の解析精度を飛躍的に向上させます。 - カスタム分類モデル (
pretrained-classifier-v1.5-2025-08-05) がGAに: カスタムドキュメント分類の信頼性と安定性が向上しました。
ビジネスユースケース: 請求書、契約書、身分証明書など、多様なビジネスドキュメントからの情報抽出と分類の精度が向上し、RPA(Robotic Process Automation)や業務自動化の核となる部分が強化されます。データ入力作業の自動化、コンプライアンスチェックの迅速化、顧客対応プロセスの効率化などに大きく貢献します。
データ基盤のAI連携を加速する「MCP Server」の登場(Preview)
Google Cloudの複数のデータベースおよびサービスで、「MCP (Multi-Cloud Platform) Server」がプレビュー公開されました。これは、LLMやAIアプリケーションがこれらのサービスと容易に連携するための新しいインターフェースです。
- Spanner・AlloyDB・Firestore・Bigtable・Cloud Run・Cloud LoggingでRemote MCP Serverが利用可能に: 各サービスでAIエージェントやAIアプリケーションが、データベースの操作、データアクセス、ログ分析、アプリケーションのデプロイなどを直接実行できるようになります。
MCP Serverとは? MCP Serverは、LLMなどのAIアプリケーションが、自然言語やAIフレンドリーな形式でGoogle Cloudサービスと対話するための橋渡しをする機能です。これにより、AIが自律的にGoogle Cloudリソースを操作したり、アプリケーションを構築したりする「エージェントモード」の開発が加速します。
ビジネスユースケース:
- AI駆動型データ分析: 自然言語でデータベースに質問し、AIが適切なクエリを生成してデータから洞察を引き出す。
- 自律型アプリケーション開発・運用: AIエージェントがコードを生成し、Cloud Runにデプロイし、ログを監視して問題があれば自動修正を試みる。
- インテリジェントな業務自動化: Firestoreに格納された顧客データに基づき、AIがパーソナライズされた顧客対応を生成し、Chat APIを通じて顧客に送信する。
- RAG (Retrieval Augmented Generation) アプリケーションの強化: 企業内の様々なデータソース(Bigtableのフィーチャーストア、Spannerのトランザクションデータ、Firestoreのドキュメント)をLLMが活用し、より正確で文脈に基づいた応答を生成する。
BigQuery: AI機能が続々とGA化&高度化、グローバルクエリで新たなデータ分析体験へ
BigQueryは、AI/ML機能のさらなる進化と、大規模データ処理の柔軟性を高めるアップデートが多数リリースされました。
AI.GENERATE/AI.GENERATE_TABLE関数でのカスタム出力スキーマ記述がGAに: 生成AI機能の出力形式をより細かく制御できるようになり、ダウンストリームでの利用が容易になります。AI.CLASSIFY関数が複数カテゴリ分類をサポート(Preview): データを複数のカテゴリに同時に分類できるようになり、分析の粒度と応用範囲が広がります。- クロスリージョンレプリケーションとマネージドディザスタリカバリの監視メトリクスがGAに: BigQueryの地理冗長性機能の運用監視が容易になり、より高いSLAを維持しやすくなります。
- データドキュメンテーションスキャンのカスタマイズとワンタイムスキャン機能: BigQueryテーブルに対するインサイト生成で、SQLクエリ、テーブル/カラム記述など、生成するインサイトのスコープを柔軟に設定可能に。また、TTL設定付きのワンタイムスキャンで、一時的な分析や診断が容易になります。
- パイプラインの実行方法が多様化(GA): 全タスク実行、選択タスク実行、選択タグ付きタスク実行が可能になり、データパイプラインの運用が柔軟になります。
- グローバルクエリがプレビュー公開: 複数のリージョンに分散したデータセットを単一のクエリで参照できるようになり、地理的制約を超えたデータ統合分析が可能になります。
- 連続クエリでBigQueryデータをSpannerにリアルタイムストリーミング(GA): BigQueryで処理されたデータを、超高速トランザクションデータベースであるSpannerにリアルタイムで連携できるようになります。
- データセットインサイトがプレビュー公開: データセット内のテーブル間の関係性を自動で分析し、関係グラフやクロステーブルクエリ、データセットの要約、分析クエリの提案などを行います。
- 削除済みデータセットの復元(Undelete)がGAに: タイムトラベルウィンドウ内であれば、誤って削除したデータセットを元の状態に復元できるようになり、データ喪失のリスクが低減します。
- 会話型分析エージェント用のカスタム用語集管理(Preview): BigQueryの会話型分析エージェントが、ユーザープロンプトをより正確に解釈するためのビジネス用語集を管理できるようになります。
ビジネスユースケース:
- 高度なAIを活用したデータ分析: 生成AIや分類AIをSQLから直接利用し、顧客からのフィードバック分析、商品レビューの感情分析、異常検知など、幅広いユースケースでデータからの洞察獲得を加速します。
- グローバルビジネスのデータ統合: グローバルに展開する企業のデータが複数のリージョンに分散していても、グローバルクエリで簡単に統合分析が可能になり、全体最適の意思決定を支援します。
- リアルタイムデータの活用: BigQueryからSpannerへの連続ストリーミングにより、分析データから得られた知見を基に、リアルタイムでアプリケーションを動作させることが可能になります(例:不正検知後の口座ロック、パーソナライズされたプロモーション配信)。
- データガバナンスとデータリテラシーの向上: データセットインサイトやデータセット復元機能により、データ活用者がデータをより深く理解し、安全に利用できる環境が整備されます。
Spanner: オートスケーラーとエディション管理の進化で運用の最適化を推進
Spannerは、超大規模かつ高可用性のデータベースとして、運用の効率性と柔軟性をさらに高めるアップデートを提供しました。
- マネージドオートスケーラーの機能拡張:
- 総CPU使用率ターゲットに基づくオートスケーリング: CPU利用率に基づいて自動的にコンピュート容量が増減し、パフォーマンスとコスト効率を両立させます。
- インスタンスパーティションでのオートスケーリング(Preview): ジオパーティショニングされたインスタンスでも、特定のパーティション単位でオートスケーリングが可能になります。
- エディション管理機能の強化:
- EnterpriseエディションとEnterprise Plusエディションの機能使用状況を監視: 利用している上位エディション固有の機能を把握しやすくなります。
- Google Cloud コンソールからのエディションダウングレード: 必要に応じてエディションを柔軟に変更し、コスト最適化を図れます。
- バックアップからの復元時のエディション互換性検証: データの一貫性を保ちながら、適切なエディションに復元できることを確認します。
- 組織ポリシーによるカスタムエディション制約: 組織全体で利用可能なSpannerエディションを統制し、ガバナンスを強化します。
UNSPLITTABLE_REASONSのGA化: ホットスポットインサイトとスプリット統計ビューで、シャードがそれ以上分割できない理由が提供されるようになり、問題特定とスキーマアンチパターンの発見に役立ちます。
ビジネスユースケース:
- コスト最適化とパフォーマンスの両立: マネージドオートスケーラーにより、トラフィックの変動に合わせて最適なリソースが割り当てられ、コストを抑えつつ高いパフォーマンスを維持できます。
- データベース管理の効率化: エディション管理機能により、Google Cloudコンソールから簡単にエディション変更や監視が可能となり、運用負荷が軽減されます。
- 問題特定と解決の迅速化:
UNSPLITTABLE_REASONSにより、パフォーマンス問題の原因となりがちなスキーマ設計の問題を早期に発見し、改善に繋げることができます。
AlloyDB: AI機能がGAに!高性能DBとAIの融合でRAGやセマンティック検索を加速
AlloyDB for PostgreSQLは、AI機能の本格的なGAにより、分析ワークロードとAIアプリケーションの基盤としての魅力を大幅に高めました。
- AI機能がGAに:
- Auto vector embeddings (GA): 大規模データセットのベクトル埋め込みのライフサイクル管理を自動化します。トランザクションデータとの同期、新旧データに対する増分リフレッシュ、一括モードでの高速処理をサポートし、手動でのインデックス再構築やカスタムスクリプトが不要になります。
- AI functions (GA): GeminiのようなLLMを統合し、SQLワークフローに「世界知識」と高度なセマンティック検索・ランキング機能をもたらします。フィルタリング (
ai.if)、セマンティックランキング (ai.rank)、生成 (ai.generate)、予測 (ai.forecast) など、すぐに使える関数を提供します。 - 配列ベースのAI関数でパフォーマンス向上: SQLクエリ内で自然言語プロンプトのバッチ処理が可能になり、大規模なAI処理の効率が大幅に向上します。
- 仮想カラム(Preview): カラムナエンジンにおける式の仮想カラムが、頻繁に使用される式の結果をキャッシュし、クエリパフォーマンスを大幅に向上させます。
- AlloyDB remote MCP server(Preview): LLMやAIアプリケーションがAlloyDBクラスターと容易に連携できるようになります。
- Gemini Cloud Assist調査機能がサポート(Preview): AIアシスタンスによる遅いクエリのトラブルシューティングが可能になります。
ビジネスユースケース:
- RAG (Retrieval Augmented Generation) アプリケーションの構築: Auto vector embeddingsにより、最新のトランザクションデータとセマンティックに紐づいた埋め込みデータを活用し、LLMがより正確な情報を参照して応答を生成できます。
- インテリジェントなデータ分析と意思決定: AI functionsをSQLに直接組み込むことで、複雑な自然言語クエリによるデータ探索、セマンティックなデータランキング、将来予測などが可能になり、ビジネスインサイトの発見を加速します。
- リアルタイムパーソナライゼーション: 顧客の行動履歴やプロファイルをベクトル埋め込みとしてAlloyDBに保持し、AI functionsでリアルタイムにパーソナライズされたレコメンデーションやコンテンツを提供します。
- データベース運用効率の向上: Gemini Cloud AssistやDatabase Centerとの統合により、AIがデータベースの健全性を監視し、パフォーマンス問題の診断や解決を支援します。
データ活用を加速する周辺サービス
Looker: データ分析とガバナンスを強化する多岐にわたるアップデート
Lookerは、データ分析の利便性向上、セキュリティ強化、開発者の生産性向上を目的とした多くのアップデートが提供されました。
- Gemini機能との連携強化:
- CE Advanced Editorロールに
gemini_in_lookerなどの権限が追加され、Geminiと会話型分析機能へのアクセスが容易になりました。 - Embed Conversational Analytics Labs機能(Preview): 会話型分析の会話やエージェントをiframeに埋め込み可能に。
- CE Advanced Editorロールに
- BigQuery連携の高速化:
- インデータベースマージクエリ(Preview): 同一のBigQuery接続上にある2つのクエリ結果のマージ処理をBigQueryデータベース内で実行できるようになり、Lookerメモリでの処理制限(5,000行)が解消され、パフォーマンスが大幅に向上します。
- セルフサービスExplores機能の拡張(Preview):
- Google Sheetsからのデータアップロードをサポート: より多くのユーザーが手軽にデータを取り込み、分析できるようになります。
- データ更新機能: 作成元のファイルからデータを簡単に更新できるようになりました。
- AlloyDB for PostgreSQLのフルサポート: ネイティブな接続サポートにより、AlloyDBの高性能をLookerで最大限に活用できるようになります。
- セキュリティとガバナンスの強化:
- パスワード有効期限ポリシー: メールとパスワード認証ユーザー向けのセキュリティが向上しました。
- IP許可リストがアクティブな場合のGoogle Cloudサービスアクセス許可: 会話型分析などのGoogle CloudサービスがLookerインスタンスにアクセスできるようになります。
schedule_without_limit権限: 全データ結果の配信を制限する権限が導入され、データガバナンスを強化します。
- LookML開発効率の向上(Preview): Gitブランチロックの解除オプションが追加され、開発中のトラブルシューティングが容易になります。
- Looker (Google Cloud core) バックアップ管理のGoogle Cloudコンソール対応: 手動バックアップの作成、自動/手動バックアップの表示・復元・削除がコンソールから可能になり、運用性が向上しました。
ビジネスユースケース:
- データ分析の民主化と加速: セルフサービスExploresの機能拡張により、ビジネスユーザーがIT部門に依存せず、迅速にデータ探索と分析を行えるようになります。
- リアルタイム意思決定の支援: BigQueryとの高速連携やAlloyDBのフルサポートにより、より迅速で大規模なデータ分析が可能になり、ビジネスのリアルタイム意思決定を支援します。
- データガバナンスの徹底: 細やかな権限管理やパスワードポリシー、IP許可リスト制御により、企業データのセキュリティとコンプライアンスが強化されます。
Looker Studio: ダッシュボード作成・共有の利便性向上
Looker Studioは、レポートの利便性向上と組織での活用を促進する機能が追加されました。
- レポート内の特定コンポーネントへのリンク: レポート内の特定のチャートやコントロールへの直接リンクが可能になり、情報共有の効率が向上します。
- 検索機能の拡張: レポートやデータソースの検索時に、タイプ、オーナー、場所、更新日時でフィルタリングできるようになり、目的のコンテンツを見つけやすくなります。
- Looker Studio Pro for Google Workspace: Google Workspace管理コンソールからPro版サブスクリプションを購入可能に。
- チャートのエクスポート: チャートをPNG画像として保存したり、クリップボードにコピーしたりできるようになり、レポートの内容を多様な形式で利用できます。
- 会話型分析の推論表示: クエリ入力後、「Show reasoning」をクリックすると、会話型分析がクエリをどのように解釈したかの説明が表示され、AIの動作を理解しやすくなります。
- Pro機能:課金アカウントの変更: Looker Studio Proのサブスクリプションに関連付けられたGoogle Cloud課金アカウントを、サービス中断なしで変更できるようになりました。
ビジネスユースケース:
- 情報共有とコラボレーションの促進: 特定のデータポイントに直接リンクできることで、チーム内での議論や情報共有がより効率的になります。
- データ探索と理解の深化: 会話型分析の推論表示により、AIがどのように質問に答えたのかを理解し、データからの洞察を深めることができます。
- 組織内でのBI活用促進: Pro版のGoogle Workspace連携や検索機能強化により、組織全体でのLooker Studioの導入と活用がスムーズになります。
Dataplex: メタデータ管理とデータ品質の向上
Dataplexは、データガバナンスとデータ品質管理を強化する機能が追加されました。
- データプロファイルアスペクトサイズ拡張: Dataplex Universal Catalogでデータプロファイルアスペクトのサイズが最大1MBまで拡張され、より詳細なプロファイル情報を格納できるようになります。
- メタデータ変更フィード: メタデータの変更をリアルタイムでPub/Subトピックに通知できるようになり、イベント駆動型のワークフロー構築、外部カタログとのメタデータ同期、データ品質チェックのトリガーなどに活用できます。
- データ品質ルールにデバッグクエリ(Preview): データ品質ルールの失敗時に、最大10個のスカラ値を返すデバッグクエリを同時に実行できるようになり、問題の原因特定を迅速化します。
ビジネスユースケース:
- データガバナンスの自動化: メタデータ変更フィードを活用して、データ変更イベントに応じた自動的なガバナンスポリシー適用や監査ログ記録を実現できます。
- データ品質管理の強化: デバッグクエリにより、データ品質問題の根本原因を素早く特定し、データ信頼性の向上に繋げられます。
- データカタログの鮮度維持: リアルタイムのメタデータ変更通知により、データカタログが常に最新の状態に保たれ、データ探索や利用の信頼性が向上します。
アプリケーション開発とインフラの強化
Cloud Run: 多様なランタイム、高可用性、コスト最適化
Cloud Runは、サーバーレスアプリケーションのデプロイと運用をさらに柔軟かつ効率的にするためのアップデートが多数リリースされました。
- ランタイムサポートの拡充:
osonly24ランタイム (GA): DartやGoなどのバイナリをデプロイできるOSオンリーランタイムが正式リリース。- .NET 10ランタイム (GA)、PHP 8.5ランタイム (GA)。
- Ruby 4.0ランタイム (Preview)、Go 1.26ランタイム (Preview)。
- Direct VPC ingress for Cloud Run worker pools: 各ワーカーインスタンスがVPCネットワーク上でプライベートIPアドレスを持つようになり、セキュアな内部通信が可能になります。
- Cloud Run remote MCP server(Preview): AIエージェントやAIアプリケーションがCloud Runアプリケーションをデプロイできるようになります。
- 柔軟なコミット済み使用割引(CUDs)適用範囲拡大: Cloud Runを含むCompute Flexible CUDsの適用範囲がすべてのCloud Billingアカウントに拡大され、費用対効果の高い運用が可能になります。
- マルチリージョンCloud Runサービスヘルス(Preview): 外部トラフィック向けに、自動フェイルオーバーおよびフェイルバックを伴う高可用性、マルチリージョンCloud Runサービスを展開できるようになります。
- ソースデプロイメントのUbuntu 24 LTSベースイメージがGAに: 最新のOS環境でアプリケーションをデプロイできるようになります。
ビジネスユースケース:
- 多様な技術スタックでのアプリケーション開発: 新しいランタイムのサポートにより、Go, .NET, PHP, Rubyなど、開発者の得意な言語やフレームワークでCloud Runを活用できます。
- コスト効率の高い運用: 柔軟なCUDsや、Direct VPC ingressによる内部通信の最適化により、Cloud Runの運用コストをさらに削減できます。
- 高可用性と災害対策: マルチリージョンサービスヘルスにより、障害発生時にも自動的にトラフィックを切り替えることができ、サービスの継続性を確保します。
- AI駆動型アプリケーション開発: MCP Server連携により、AIエージェントがCloud Runアプリケーションのデプロイや管理を自律的に行い、開発・運用プロセスを自動化できます。
Dataflow: Arm VMサポートでコスト効率の高いデータ処理を実現
Dataflowは、データ処理ワークロードの費用対効果を高める重要なアップデートを提供しました。
- Armプロセッサ(C4Aシリーズ)のDataflowサポートがGAに: より電力効率が高く、多くのワークロードで優れた価格性能比を発揮するArmベースのVMをDataflowジョブで利用できるようになりました。
ビジネスユースケース:
- ビッグデータ処理のコスト削減: 大規模なETLやデータ分析ジョブにおいて、Arm VMを利用することで、従来のx86ベースのVMと比較して運用コストを削減できる可能性があります。
- 環境負荷の低減: 電力効率の良いArmプロセッサの利用は、データセンターのエネルギー消費削減にも貢献し、企業のサステナビリティ目標達成を支援します。
Cloud NGFW: ネットワークセキュリティポリシー管理の効率化
Cloud NGFW(Next-Generation Firewall)は、セキュリティポリシーの管理を簡素化する機能を追加しました。
- ネットワークコンテキストがGAに: ネットワークコンテキストを利用することで、より少ないファイアウォールポリシーで効率的にセキュリティ目標を達成できるようになります。
ビジネスユースケース:
- セキュリティガバナンスの簡素化: 複雑なネットワーク環境においても、より直感的かつ効率的にファイアウォールルールを設計・管理できるようになり、セキュリティ運用の負荷を軽減します。
- コンプライアンスの強化: ネットワークコンテキストを用いて、特定の環境やアプリケーションに対するセキュリティポリシーを厳格に適用し、コンプライアンス要件への対応を支援します。
Google SecOps: セキュリティ分析の高度化とデータ保護
Google SecOpsは、セキュリティ運用センター(SOC)の分析能力とデータ保護を強化する機能を追加しました。
- 検索における高度な結合機能:
matchセクションなしでの結合: 複数ソースからのデータ相関付けが容易に。- 外部結合(Left/Right Outer Joins): マッチしないイベントも含むデータ相関付けが可能に。
- マルチステージクエリでのクロス結合: 集計統計情報と個々のUDMイベントデータを比較分析できるようになり、より複雑な脅威ハンティングが可能になります。
- Feedsページ機能の強化: 検索、フィルタリング、ページネーション、最終更新時刻、メタデータエクスポート(CSV)機能が追加され、脅威インテリジェンスフィードの管理が容易になります。
- RBAC for ingestion metrics: インジェッションメトリクス(取り込み量、エラー、スループット)の可視性をユーザーのビジネススコープに基づいて制限できるようになり、データの機密性を保護します。
- Google Cloud VPC Service Controlsサポート(Preview): 外部からの意図しないデータ流出リスクを最小限に抑え、Google Cloudサービスのデータ保護を強化します。
ビジネスユースケース:
- 脅威検出能力の向上: 高度な結合機能により、複数のセキュリティデータソースを横断的に分析し、より複雑で隠れた脅威パターンを発見できるようになります。
- セキュリティ運用の効率化: FeedsページやRBAC機能により、SOCチームはより効率的に脅威インテリジェンスを管理し、適切な情報へのアクセスを制御できます。
- データ漏洩対策とコンプライアンス: VPC Service Controlsのサポートにより、機密性の高いセキュリティデータの保護を強化し、規制要件への対応を支援します。
その他の注目アップデート
Chat API
- アプリ認証で、チャットスペースに参加していないユーザーやインポートモードのスペースのメンバーをメンション可能に(GA): アプリケーションからより柔軟なコミュニケーションが可能になります。
Dataproc
- Delta、Zookeeper、Parquet CLIのバージョンアップ: 最新のビッグデータコンポーネントが利用可能に。
- Serverless for Apache Sparkにおける
conscrypt削除サポート: 環境のカスタマイズ性が向上。 - PyPIリポジトリカスタマイズ(
dataproc:pypi.repository): Pythonパッケージ管理の柔軟性が向上。 - 診断データ共有機能の改善: クラスター問題のトラブルシューティングが容易に。
- Apache PigのARMイメージ対応: ARMベースの環境でApache Pigを利用可能に。
Cloud Trace
- オブザーバビリティバケットのロケーション選択肢拡張: トレースデータの保存場所をus, eu, us-central1, us-west1から選択可能に。
- オブザーバビリティバケットのデフォルト設定(Preview): 組織、フォルダ、プロジェクトレベルで、新しいオブザーバビリティバケットのロケーションやKMSキーのデフォルト設定が可能になり、ガバナンスと運用の簡素化に寄与します。
Cloud Deploy
- 新リージョン
asia-southeast3(バンコク) で利用可能に: 東南アジア地域の展開が強化されます。 - Cloud Run worker poolsへのコンテナ化されたワークロードデプロイがGAに: サーバーレスアプリケーションのデプロイ先がさらに柔軟になります。
Buildpacks
- osonly24 runtime (GA) とUbuntu 24 LTSベースイメージ (GA) のサポート: Cloud Runと同様に、Buildpacksでも最新のOSとランタイムのサポートが強化されました。
Places API
googleMapsTypeLabel新フィールド追加: 場所のタイプラベル(例:「restaurant」「cafe」)がレスポンスに含まれるようになり、表示やフィルタリングに活用できます。
Cloud Logging
- BigQuery予約なしでのSQLベースアラート、Log Analyticsクエリ実行: BigQueryスロット予約がなくても、SQLベースのアラートポリシーやLog Analyticsクエリがオンデマンドスロットで実行されるようになり、利便性が向上します。
Cloud Composer
- 環境スナップショット(Airflow 3)が全リージョンで利用可能に: Apache Airflow環境のバックアップと復元が容易になり、運用中の安全性と信頼性が向上します。
- 新しいOAuthスコープ
https://www.googleapis.com/auth/cloudcomposer: Cloud Composer APIに特化したOAuthスコープが提供され、よりセキュアなアクセス制御が可能になります。
まとめ
2026年2月から3月上旬にかけてのGoogle Cloudのリリースは、AIの浸透が止まらないことを強く印象づけるものでした。Geminiモデルの各種サービスへの統合や、特に「MCP Server」のようにAIエージェントがクラウドサービスを操作する基盤の登場は、今後のアプリケーション開発や運用が大きく変革される可能性を示唆しています。
BigQueryやSpanner、AlloyDBといった主要なデータ基盤サービスは、AI機能のGA化、パフォーマンス最適化、運用の柔軟性向上、そしてグローバル展開への対応を着実に進めています。これにより、企業はより迅速にデータから価値を引き出し、競争力を高めることができるでしょう。
Cloud Runに代表されるアプリケーション開発環境も、多様なランタイムサポート、高可用性機能、コスト最適化オプションが強化され、開発者の生産性向上とビジネス要件への迅速な対応を支援します。
Google Cloudは、AIを中心とした技術革新を通じて、デベロッパー、データアナリスト、運用者、そしてビジネスユーザーのあらゆる課題解決を支援し続けています。これらの最新リリースを活用し、貴社のビジネスをさらに加速させてみてはいかがでしょうか。
※本記事は、ジーアイクラウド株式会社の見解を述べたものであり、必要な調査・検討は行っているものの必ずしもその正確性や真実性を保証するものではありません。
※リンクを利用する際には、必ず出典がGIC dryaki-blogであることを明記してください。
リンクの利用によりトラブルが発生した場合、リンクを設置した方ご自身の責任で対応してください。
ジーアイクラウド株式会社はユーザーによるリンクの利用につき、如何なる責任を負うものではありません。