日前,Anthropic 开源的模型上下文协议 (MCP) 酝酿了一项重要的技术革新——全面采用 Streamable HTTP 作为其核心数据传输方式,这个动议标志着 AI 模型与外部世界的数据交互进入了一个全新的高效时代。
这一举措不仅是对现有技术瓶颈的突破,更预示着未来 AI 应用将拥有更强大的性能和更广泛的应用场景。
背景速览:AI 模型交互的效率之困
在人工智能的浪潮中,大型语言模型正变得日益强大。然而,如何让这些模型高效地与外部数据、服务进行沟通,一直是开发者面临的挑战。
此前,MCP 主要采用 HTTP+SSE (Server-Sent Events) 进行数据传输,这种模式在特定场景下表现尚可,但在面对高并发、实时性要求高的复杂应用时,其效率和灵活性都略显不足。
值得关注的是,近期涌现出如 Manus AI 这样的通用型 AI 代理。这类创新应用旨在通过 AI 实现更智能的自动化任务,其背后需要底层协议能够提供稳定、高效的数据传输能力。传统的 SSE 模式在支撑此类对实时性和效率有极致要求的应用时,可能会遇到瓶颈。
与此同时,在刚刚落幕的 2025 年 GTC 大会上,NVIDIA CEO 黄仁勋多次强调加速计算和高效基础设施对于推动 AI 普及的关键作用。虽然 GTC 大会聚焦于最新的硬件突破和前沿技术,但高效的数据传输无疑是所有创新应用的基础。
聚光灯下:MCP Streamable HTTP 的核心优势
此次 MCP 评议的升级方向,在于以 Streamable HTTP 取代原有的 HTTP+SSE,这一转变带来了显著的技术优势:
更轻便的部署方案: Streamable HTTP 基于标准的 HTTP 协议,开发者无需搭建和维护特定的 SSE 服务器,极大地简化了部署流程,尤其是在流行的 Serverless 云平台上,可以实现更快速、更灵活的应用上线和扩展。
更广泛的网络兼容性: HTTP 作为互联网的基础协议,与各种网络基础设施(如 CDN、API 网关、负载均衡器)拥有天然的亲和力。MCP 采用 Streamable HTTP 后,可以更好地融入现有的技术生态,降低了跨平台、跨系统的集成难度,为构建复杂的 AI 应用提供了便利。
更高性能的数据传输: Streamable HTTP 能够提供更高效的数据传输能力,尤其在处理高并发场景时表现更佳。这对于需要处理大量实时数据的 AI 服务至关重要,例如金融风控、智能监控等。
灵活的技术选择: MCP 的升级并非意味着完全抛弃 SSE。协议允许服务器根据实际应用场景的需求,灵活地选择或升级到 SSE,这种设计上的灵活性为开发者提供了更多的选择空间。
应用场景展望:Streamable HTTP 将如何赋能 AI?
MCP 若最终采用 Streamable HTTP, 预计将在以下 AI 应用场景中发挥重要作用:
新一代智能代理: 诸如 Manus AI 这样的通用型 AI 代理,对响应速度和数据传输效率有着极高要求。Streamable HTTP 可以提供更流畅、更稳定的数据通道,提升用户与 AI 交互的体验。
实时数据分析与可视化: 在需要对海量数据进行实时分析和展示的应用中,Streamable HTTP 可以确保数据的及时高效传输,为决策提供更快速的支持。
互动性更强的在线应用: 例如在线教育、远程协作等场景,实时的数据同步是关键。Streamable HTTP 可以提供更低延迟、更可靠的数据传输,提升用户体验。
高性能语言模型应用: 当用户与大型语言模型进行复杂的对话交互时,Streamable HTTP 可以更有效地传输文本、代码等数据,提升应用的响应速度和整体性能。
行业观察:MCP Streamable HTTP 的战略意义
从更宏观的角度来看,MCP 拥抱 Streamable HTTP ,将不仅是一次技术升级,更是 AI 基础设施演进的重要一步。
在 GTC 2025 上,黄仁勋的发言已经预示了未来 AI 应用将更加注重效率和落地。MCP 的这一举措,正是顺应了这一趋势,通过优化底层的数据交互协议,为开发者打造更强大、更易用的 AI 应用提供了有力支撑。随着 Streamable HTTP 的普及,我们有理由相信,未来的 AI 应用将更加智能化、实时化和普及化。
相关Github地址:
https://github.com/modelcontextprotocol/specification/pull/206