12月11日,随着AI智能体被广泛视为处理旅行规划、商业决策乃至复杂任务的“万能钥匙”,一个现实问题却始终悬而未决:如何让这些智能体真正打通与外部工具和数据之间的壁垒?过去,开发者往往需要手动搭建并维护各种连接器,这种方式不仅繁琐、脆弱,还难以规模化,更在企业治理层面埋下隐患。
面对这一挑战,谷歌正推出一项关键举措——完全托管的远程MCP(Model Context Protocol,模型上下文协议)服务器。此举旨在简化AI智能体与谷歌生态内核心服务(如Google Maps、BigQuery等)的集成流程,使其无需复杂配置即可调用真实世界的工具和实时数据。
值得注意的是,这项新功能紧随谷歌最新发布的Gemini 3大模型而来。公司希望将模型更强的推理能力与稳定、安全的外部连接能力结合起来,从而打造真正“可用”的智能体体验。“我们正在从底层设计上,让整个谷歌平台变得‘智能体就绪’(agent-ready),”谷歌云产品管理总监Steren Giannini向媒体表示。
据Giannini介绍,以往开发者可能需要耗费一到两周时间构建自定义连接器,如今只需复制一个托管端点的URL,即可快速完成集成。在初期阶段,谷歌已上线面向Maps、BigQuery、Compute Engine和Kubernetes Engine的MCP服务器。典型应用场景包括:分析型智能体直接查询BigQuery数据库,或运维助手自动与基础设施交互以执行故障排查。
以Google Maps为例,若缺乏MCP支持,智能体只能依赖其训练时所学的静态地理知识;但一旦接入Maps MCP服务器,它便能基于最新、最准确的位置与路线信息做出动态决策。“这从根本上改变了智能体的能力边界,”Giannini强调。
尽管目前MCP服务器仍处于公开预览阶段(尚未纳入正式服务等级协议保障),但对已使用谷歌云服务的企业客户而言,这些功能将免费开放。Giannini透露,全面正式发布(General Availability)预计将在明年年初实现,且未来每周都会有新的MCP服务器陆续上线。
MCP最初由Anthropic于约一年前提出,作为一种开源标准,用于打通AI系统与外部工具及数据源。该协议迅速在智能体开发生态中获得广泛采纳。就在本周,Anthropic已将MCP捐赠给Linux基金会新设立的专项基金,以推动AI智能体基础设施的标准化进程。
“MCP的魅力在于它的开放性,”Giannini指出,“只要谷歌提供一个MCP服务器,任何兼容的客户端都能无缝对接。”他举例称,自己已成功使用Anthropic的Claude和OpenAI的ChatGPT作为客户端调用谷歌的MCP服务,“它们都能直接运行。”
除了提升服务可接入性,谷歌此次布局更深层的战略意图在于其API管理平台Apigee。许多企业早已通过Apigee分发API密钥、设置调用配额并监控流量。如今,Apigee可将现有API“转换”为MCP服务器,使商品目录、订单系统等企业内部接口自动变为AI智能体可发现、可调用的工具,同时保留原有的安全策略与治理机制。
这意味着,企业过去为人工开发应用建立的API治理体系,现在也能无缝延伸至AI智能体场景。此外,所有MCP服务器均受Google Cloud IAM权限控制,并由专为智能体设计的安全层——Google Cloud Model Armor提供防护,有效抵御提示词注入、数据泄露等新型攻击。管理员还可通过审计日志实现全链路可观测性。
展望未来,谷歌计划在未来数月内将MCP支持扩展至存储、数据库、日志监控、安全等多个服务领域。“我们已经搭好了底层管道,”Giannini总结道,“开发者再也不必从零开始造轮子了。”
