Google Cloud 正式推出 Model Context Protocol(MCP)托管服务器的公共预览版,率先支持 BigQuery、Maps、Compute Engine 与 Kubernetes Engine 四大核心服务。开发者只需复制一个托管端点 URL,即可让 Gemini 等 AI 代理直接对接 Google Cloud 资源,省去繁琐的连接器开发、凭证管理与版本适配流程,真正实现“开箱即用”的无缝集成体验。
首批上线:BigQuery 与 Maps 实现即插即用
- BigQuery MCP 允许 AI 代理直接执行 SQL 查询并返回结构化分析结果,适用于智能数据问答、自动化报表生成等场景;
- Maps MCP 则为模型提供实时地理信息能力,包括地点检索、路线规划与交通状况更新,显著提升行程安排、门店推荐等本地化服务的准确性;
- Compute Engine 与 Kubernetes Engine 的 MCP 支持则聚焦运维场景,可查询虚拟机状态、重启故障 Pod,助力构建自愈型基础设施。
安全机制:IAM 与 Model Armor 构建双重防线
- 基于 IAM 的细粒度权限控制,可将访问范围精确限定到特定数据表或集群,确保代理仅操作授权资源;
- Model Armor 作为专为 AI 代理设计的安全层,能有效防御提示注入、敏感信息泄露等新型攻击;
- 所有代理调用行为均被完整记录于 Audit Logging 中,满足企业合规审计需求。
企业赋能:Apigee 助力内部系统快速“MCP 化”
- 通过 Apigee 控制台,企业可将现有 API(如产品目录、订单系统、CRM 等)一键转换为 MCP 端点,迅速纳入 AI 代理工具链;
- 配额管理与速率限制策略可直接复用原有 API 网关配置,无需额外编码;
- 当前处于公共预览阶段,服务免费使用,正式上线后将计入常规云账单,不收取额外连接器费用。
扩展节奏:每周新增,2025 年全面覆盖
- 下周即将上线 Logging、Monitoring 与 Cloud Storage 的 MCP 支持;
- 2025 年第一季度,Database、Security 与 IAM 等关键产品线将完成 MCP 改造;
- 长期规划显示,Google Cloud 将保持每周 1–2 个新服务的发布频率,目标在年底前覆盖其 80% 的云服务。
战略升级:MCP 从协议走向基础设施
此次 Google 将 MCP 从开源协议演进为全托管基础设施,标志着 AI 代理集成进入新阶段:
- 对开发者而言,彻底摆脱连接器维护负担,专注核心业务逻辑;
- 对企业用户,现有 API 治理体系可平滑延伸至 AI 代理场景,大幅降低合规与安全风险;
- 对整个生态,任何兼容 MCP 的客户端(包括 Gemini、Claude、ChatGPT 等)均可调用统一接口,实现“一次接入,多端通用”的互操作愿景。
未来方向:通用托管与边缘部署并行推进
据 Google 透露,2025 年 MCP 托管节点将下沉至边缘 PoP(Point of Presence),结合类似 Cloudflare 的边缘推理架构,显著降低 AI 代理调用延迟。行业观察平台将持续追踪其正式版定价策略、边缘节点落地进展及更多云服务的 MCP 化动态。
