0%

MCP介绍

MCP 的作用:提供标准化接口,让 Cascade 等代理安全访问外部数据源,将数据转化为可操作的上下文。

image-20250311110249044

1. MCP (Model Context Protocol)

1.1 介绍

在MCP之前,Al Agent 应用 (如AutoGPT、MetaGPT等)常用的工具包括。

  • 操作本地文件

  • 操作本地数据库

  • 控制本地浏览器

  • 调用搜索引擎 API 等等。

在MCP 之前,这些 Agent应用的开发者需要各自实现这些工具,也就是说各家接口各不相同。

MCP 相当于为这些工具支持的操作,及输入和输出格式制定了统一的标准。比如下面是MCP对 “操作本地文件” 和 “调用搜索API” 这两个工具的定义, 未来所有 Agent 应用都可以使用MCP这个规范。大幅简化了 Agent 应用的开发流程。

1.2 技术架构

三大组件:

  • Client(客户端):Windsurf/Cascade 作为使用者。
  • Server(服务器):轻量级本地进程,通过 API 连接数据源(如 Slack API)。
  • Data Source:本地(如文件系统)或远程(如 Slack 频道)数据源。

1.3 和 Function Calling 区别

  1. MCP 可以简单理解跟大模型已经支持的 Function Calling 是同一个东西,本质是为了让大模型可以调用外挂的服务,对接更多的数据和能力,再作为补充上下文回答用户的问题。

  2. 区别点在于:Function Calling 由大模型通过 HTTP 请求第三方的外挂 API,而 MCP 是由大模型通过 RPC 请求第三方的外挂服务;

  3. 从接入方式上看,Function Calling 更简单,第三方只需要写一个 API,再在大模型配置对 API 的请求参数即可。MCP 接入起来要复杂一些,第三方需要写个服务,实现协议里定义的 RPC 方法,再在大模型里面配置服务地址和参数,大模型客户端在启动的时候需要做一次服务发现,再连接到配置的 RPC 服务,才能在后续对话过程调用;

  4. Function Calling 和 MCP 的核心和难点都在于大模型侧的意图识别,用户随机提问,如何找到匹配的外挂服务,实现 RAG,这是所有大模型面临的通用难题(比如 ChatGPT 有几百万的 GPTs 应用,如何根据用户提问路由到最匹配的那个 GPTs 来回答问题),MCP 协议并不能解决这个问题。

    Claude 客户端目前的实现方式,是让用户自己写个配置文件,告诉大模型有哪些可以调用的服务,再由 Claude 在对话时自动识别,跟 ChatGPT 之前让用户选择使用哪些 Plugins 的逻辑一致;

  5. MCP 的亮点是定义了一套标准且相对完善的协议,对于大模型和应用的生态协同有很大的指导意义。MCP 的发展取决于有多少第三方服务愿意基于这套协议去实现 RPC 服务,最关键的还是大模型/应用客户端对海量 MCP 服务的路由寻址问题(没有固定的后缀,只能靠意图识别或者人工配置)。

1.4 和 GPT Actions 区别

  1. Anthropic MCP对标的并不是function calling,MCP对标的是OpenAI的GPT Actions(前身是GPT Plugins)。
  2. MCP和GPT Actions的主要区别,GPT Actions是Restful API + 网络服务,MCP则是JSON-RPC + 服务,且目前以本地服务为主。

1.5 和 RAG 区别

MCP和RAG在增强LLM能力方面有一定的相似性,例如都涉及外部信息或工具的利用,但它们的侧重点不同。MCP更注重让LLM具备与外部系统互动的能力,而RAG则专注于优化文本生成的质量。

一个有趣的观察是,这两者可以结合使用。例如,一个AI代理可以使用MCP调用一个检索工具(如Web搜索),然后通过RAG将检索到的信息整合到其生成响应中,从而实现更强大的功能。这种组合在2025年的AI应用中可能变得越来越常见,尤其是在需要动态交互和实时信息更新的场景中。

2. MCP Marketplace

https://smithery.ai/

在 MCP Marketplace 之前,想让 AI 用外部工具(比如查数据库、跑脚本),你得自己写个 MCP 服务器,懂 Python 或 Node.js,搞定 API 接口,还要本地跑起来调试。整个流程少说几小时,多则几天。

现在呢?Marketplace 里一堆现成的 MCP 服务器,你点“安装”,Cline 自动拉代码、跑依赖、配环境,几分钟就搞定。就像在 iPhone 上装 App,连 jailbreak 都不用,傻瓜式操作。

MCP Marketplace 的推出是 AI 编程工具的 “App Store 时刻”。

门槛到底降了多少?

以前的门槛:

举个例子,想让 AI 帮你查 AWS EC2 状态,你得:

  1. 写个 Python 脚本,用 boto3 连 AWS API;
  2. 搭个 Flask 或 FastAPI 服务器暴露接口;
  3. 配置 MCP 协议,生成工具定义文件;
  4. 本地跑起来,解决端口冲突、依赖报错;
  5. 告诉 Cline 怎么连上。

这套流程,没点编程基础和耐心,根本玩不转。

现在的门槛:

有了 MCP Marketplace,你就:

  1. 打开 Cline,进 Marketplace;
  2. 搜“AWS EC2 MCP”,点安装;
  3. 输入 AWS 密钥(如果需要);
  4. 完事,说一句“查下我的 EC2”,AI 直接干活。

全程不超过 5 分钟,连代码都不用看一眼。

3. 使用

3.1 cursor

1
2
3
4
5
6
7
8
9
{
"mcpServers": {
"time": {
"command": "python",
"args": ["-m", "mcp_server_time", "--local-timezone=Asia/Shanghai"]
}
}
}

  • github

    1. 单击“ 开发人员设置”。
    2. 请在左侧边栏的 Personal access tokens 下,单击令牌(经典)。
    3. 选择“生成新令牌,然后单击“生成新令牌(经典)。
    4. https://smithery.ai/server/@smithery-ai/github
    image-20250315222909915

3.2 Cherry Studio

image-20250315224425509 image-20250315224356921

4. 参考资料

可以加首页作者微信,咨询相关问题!