您可以在此处查看我们关于 的文章。
事实上,许多早期采用者正是这样做的:连接知识库和数据存储。Anthropic 的新闻稿提到,像 Block 这样的组织以及像 Source graph 和 Replit 这样的初创公司正在与 MCP 合作,让 AI 代理从其现有系统中检索代码上下文、文档等信息。其好处显而易见:增强模型的上下文感知能力,可以带来更准确、更相关的答案。您将获得一个能够处理长上下文的助手,而不是一个只能感知到训练截止值(并幻化最新信息的助手)。例如,它可以从数据库或用户的个人数据(经用户许可)中提取最新的产品规格,从而提供定制化的答案。简而言之,MCP 增强了长上下文模型的功能。它确保这些模型始终拥有正确的上下文,而不仅仅是大量的上下文。
除了静态数据检索之外,模型上下文协议 (MCP) 还旨在支持代理行为,即 LLM 可以在外部世界中执行操作。使用 MCP 工具,您可以赋予模型执行诸如发送消息、创建 GitHub 问题、运行代码或控制物联网设备等操作的能力(可能性无穷无尽,仅受您公开的工具限制)。关键在于 MCP 为此提供了一个安全、结构化的框架。每个工具都有定义好的接口,并且需要用户选择加入。这降低了让人工智能执行任意操作的风险,因为作为开发者,您可以明确定义哪些操作是允许的。
考虑将一个编程助手集成到您的 IDE 中。使用 MCP,它可能会连接到 Git 服务器和一个测试框架。该助手可能包含一个 run_tests() 工具和另一个 git_commit(message) 工具。当您要求它实现某个功能时,它可以在 IDE 中编写代码,然后决定通过 MCP 调用 run_tests() 来执行测试套件,获取结果,如果一切顺利,则调用 git_commit() 提交更改。MCP 连接器简化了所有这些步骤(适用于测试运行器和 Git)。 IDE(主机)负责协调整个流程,确保您批准。这并非空想——开发人员正在积极开发此类代理集成。例如,Zed(代码编辑器)和其他 IDE 插件背后的团队一直在与 MCP 合作,以使 AI 助手能够更好地理解和引导编程任务。
另一个例子:客户支持聊天机器人可以使用工具来重置用户密码或检索订单状态(通过连接到内部 API 的 MCP 服务器)。AI 可以无缝地端到端处理支持请求:查找订单(读取资源)并发起退款(工具操作),同时记录所有操作。MCP 的标准化日志记录和安全模型在这方面发挥了作用——例如,它可以在执行退款等操作之前要求明确确认,并且所有事件都会经过统一的监控管道。
借助模型上下文协议 (MCP),代理范式变得更加健壮,因为任何 AI 代理框架都可以利用同一套工具。值得注意的是,就连 OpenAI 也宣布了支持 MCP 的计划,这表明它可能会成为类似插件功能的跨平台标准。这意味着,为您的工具或服务构建 MCP 服务器,可以让多个 AI 平台(例如 Claude、潜在的 ChatGPT 等)使用它。LLM 工具生态系统由此趋向于一个共同点,使开发者能够获得更高的复用率,并为用户提供更强大的 AI 助手。
模型上下文协议 (MCP) 不仅限于基于文本的数据。资源也可以是二进制或其他格式(它们具有 MIME 类型)。您可以通过资源将图像或音频文件作为 base64 字符串或数据流提供,并让 LLM 对其进行分析(如果 LLM 具备该功能),或者将它们传递给其他模型。例如,MCP 服务器可以公开用户的图像集合——模型可以通过文件名检索照片作为资源,然后使用其他工具将其传递给图像字幕服务,并在对话中使用该字幕。
此外,MCP 有一个“提示”的概念(我们在代码中简要添加了它),它允许更复杂的多步骤工作流程。提示模板可以指导模型按特定顺序使用某些工具。例如,“文档问答”提示可能会指示模型:“首先,使用 search_docs 工具在文档中搜索相关信息。然后使用 doc:// 资源读取最顶部的结果。
最后,引用该信息回答问题。” 此提示可以是服务器提供的模板之一,用户可以明确调用它来执行任务(或者主机根据上下文自动选择它)。虽然并非绝对必要,但提示单元提供了另一个杠杆,以确保模型有效地使用可用的工具和上下文。
使用模型上下文协议 (MCP) 进行开发确实会引入一些初始学习曲线(就像任何新框架一样)。但它也带来了显著的优势:
关于后续步骤,以下是一些关于 MCP 的建议:
Anthropic 的模型上下文协议 (MCP) 代表着在使 LLM 以标准化、开发者友好的方式感知上下文并可执行操作方面迈出了重要一步。通过将上下文提供和工具使用分离到一个正式的协议中,MCP 将我们从脆弱的即时黑客攻击和一次性集成中解放出来。取而代之的是,我们获得了一个即插即用的生态系统,在这个生态系统中,AI 模型可以像我们的常规软件一样流畅地连接到丰富的数据和服务。在上下文窗口越来越长的时代,模型上下文协议 (MCP) 就像管道一样,能够传递正确的信息,从而有效地填充这些窗口。
对于开发者来说,这是一个令人兴奋的领域,值得深入探索。我们只是通过一个简单的演示来触及皮毛,但您可以想象一下,当您将多个 MCP 服务器组合在一起时,将会有多么无限的可能性——您的 AI 助手可以同时从文档 Wiki 中提取知识、与您的日历交互以及控制物联网设备,所有这些都只需一次对话即可完成。而且,由于这一切都是标准化的,您可以减少处理提示的时间,而将更多的时间投入到构建酷炫的功能上。
我们鼓励您尝试 MCP 和 Claude:试用示例服务器,构建您自己的服务器,并将其集成到您的 AI 项目中。作为由大型 AI 实验室和不断发展的社区支持的开放标准,MCP 可能成为我们构建 AI 应用的基石,就像 USB 在设备连接领域变得无处不在一样。尽早参与其中,您可以帮助塑造这个生态系统,并确保您的应用始终处于情境感知 AI 的前沿。
全部评论
留言在赶来的路上...
发表评论