小白程序员必备:轻松掌握MCP配置,畅享AI工具的无限可能(收藏版)
这里不过多解释,毕竟我们只是使用而不是实现。简单来说 LLM使用不同工具时,以前需要同时修改模型和工具,因为各工具的API数据格式不统一,导致适配成本高、功能添加慢。MCP协议统一了数据格式标准,规定了应用向LLM传输数据的方式。任何模型只要兼容MCP协议,就能与所有支持MCP的应用交互。这将适配工作从双向简化为单向(仅应用端),且对于已有API的应用,第三方开发者也可基于其API进行MCP封装适
本文介绍了MCP协议及其作用,旨在降低普通人使用MCP的门槛。文章详细讲解了配置MCP前的准备工作、获取MCP服务的方法,并以Chatwise和Windsurf为例,指导读者如何在AI编程IDE和聊天客户端中配置MCP服务。此外,还提供了多个实用MCP服务案例,如从Figma获取设计稿信息生成网页、手搓AI搜索、搭建Obsidian AI知识库等,帮助读者更好地理解和应用MCP协议。
什么是 MCP
这里不过多解释,毕竟我们只是使用而不是实现。
简单来说 LLM使用不同工具时,以前需要同时修改模型和工具,因为各工具的API数据格式不统一,导致适配成本高、功能添加慢。
MCP协议统一了数据格式标准,规定了应用向LLM传输数据的方式。任何模型只要兼容MCP协议,就能与所有支持MCP的应用交互。
这将适配工作从双向简化为单向(仅应用端),且对于已有API的应用,第三方开发者也可基于其API进行MCP封装适配,无需官方支持。
可以看下面 Claude 画的这个图,虽然糙但是也可以理解了,哈哈。


配置准备工作
注意:Windows 在环境配置和网络上的问题比 Mac 多很多,所以如果你没有编程经验并且是 Windows 电脑,出错不是你的问题,实在无法修复的话就算了。
MCP 现在一共有两种模式:
- Stdio:主要用在本地服务上,操作你本地的软件或者本地的文件,比如 Blender 这种就只能用 Stdio 因为他没有在线服务
- SSE :主要用在远程服务上,这个服务本身就有在线的 API,比如访问你的谷歌邮件,谷歌日历等。
SEE 的配置方式非常简单基本上就一个链接就行,这个不需要教,如果你找到的是 SEE 的直接复制他的链接填上就行,而且现在使用 SEE 配置的 MCP 非常少,基本上都是 Stdio 的方式。
Stdio 的配置比较复杂,我们需要做些准备工作,你需要提前安装需要的命令行工具。
Stdio 主要需要两个开始的命令一个是 uvx 一个是 npx。
其中 uvx 我们需要安装 uv:如果你是 Windows 的话可以按“Win”键,点击搜索后输入"PowerShell",然后右键选择“以管理员身份运行”,粘贴下面的命令回车就行,运行完记得重启。
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
如果你是 Mac 的话只需要点击你的“启动台”搜索“终端”应用,然后输入下面的代码回车就行。
curl -LsSf https://astral.sh/uv/install.sh | sh
接下来是 upx,这个简单我们只需要安装 Node.js 就行,访问官网(https://nodejs.org/)点击下载正常安装就行。

获取MCP
随着 MCP 的爆火已经有了很多 MCP 聚合网站,比如逗哥的 MCP.so 和 https://smithery.ai/ 。
他们的使用也大同小异,一般在左侧输入这个 MCP 必要的 API 之后就可以帮你生成各种导入的 Json 命令了。
API 如何获取一般在左侧的介绍部分也有有写,我后面的案例部分也会帮你介绍我用的几个常见 MCP 的 API 获取地址。

下面的配置部分分别是 Windsurf 和 chatwise 的可以根据你使用的客户端选择查看。
配置 MCP-Windsurf
完之后我们就得配置了,如果你用的是 Windsurf 的话,可以在右上角头像部分打开“Windsurf Settings”在里面找到
MCP Servers 点击右边的“Add Server”按钮添加。

Windsurf 好的是他内置了一些常用的的 MCP 服务你可以直接用,同时由于是常见的 IDE 所以很多 MCP 网站都有适配命令很好找,上面获取 MCP 的部分我们已经说过了。
如果默认配置的没有你想要的 MCP 可以点击「Add custom sever」

之后你会发现他打开了一个文件,你只需要将从网站复制的 Json 填写进去保存就行。
这里需要注意的是,当你需要配置第二个的时候,不要将网站给你的 Json 直接放在第一个下面,只需要将下面代码块的部分去掉,将剩下的部分放到原来剩下那部分结束就行。
如果你实在不会,你可以把你的整个配置文件复制给 AI 让 AI 帮你改,只需要说“这个 Json 写法有什么问题吗?如果有帮我修复”就行,然后将 AI 帮你修复的复制进去,记得保存修改。
{ "mcpServers": { }}

如果你配置无误的话应该会看到右边图示位置出现了你配置的 MCP 服务的名字,同时前面有个绿点,如果配置有问题的话就是红色的点。

一旦你添加成功使用就很方便了,直接在右侧跟 AI 对话提出要求就好了,比如我这里就让他直接往我的 Flomo 笔记里面增加了一条笔记。

配置 MCP-ChatWise
麻了,我昨天吭哧瘪肚教大家吧 Json 转成正常命令,结果今天 Chatwise 支持了一个新功能,可以直接从 Json 新建 MCP 了。
在新建的时候左下角加号点击后选择「从剪切板导入 Json」就可以直接导入你从 Windsurf 或者 MCP 网站复制来的 Json 了,省事很多朋友们。

接下来就是使用了,ChatWise 可以在输入框点击锤子图标后开启来开启 MCP 服务的使用,需要注意的是,在开启开关后还需要单独点击需要启用的 MCP 服务,有了对号代表着启用了。

这个时候我们可以直接在聊天窗口用自然语言跟模型对话,需要的时候他自然就会启动对应的 MCP 获取信息。
比如我下面这个问题他先调用时间 MCP 获取到了当前时间,然后调用 Exa 的搜索 MCP 搜索到了 Open AI最近的新闻。

当然你还是可以看下面正常的添加流程。
AI IDE 对于普通人来说还是有点复杂,我们更多了解的还是 Chatwise 这种跟 AI 对话的工具,ChatWise 的配置比 windsurf 好找,难的是命令行。
点击左下角头像,然后在设置里面找到工具,在点击左下角的加号就可以添加。
可以看到我们需要填写四个东西:类型、ID、命令、环境变量。
类型这里一般如果 MCP 网站给的是上面的 Json 格式而不是网址的话就选 Stdio 就行。
ID 这个你可以自己起名字,一般标识一下这个 MCP 的服务名字就行。

接下来的命令和环境变量,这里我之前也发愁怎么办,但后来我想了一个好办法,我们不是可以从 MCP 网站可以获取到 Json 代码吗。
只需要将 json 代码发给 AI 模型(Claude 或者 Deepseek)然后让他将这个 Json 转换为正常的命令,同时将环境变量单列出来就行,比如下面这个高德 MCP 的 Json 就成功的分离了,我们将命令和环境变量分别填写就行。
然后我们可以点击下面的查看工具按钮,如果调试没问题,就会列出具体的工具,如果调试有问题就会列出返回的报错,这时候我们就可以将报错发给 AI 看应该如何修复,一般是命令缺少参数或者环境变量的 API Key 填错了。
这个时候我们的 MCP 就配置好了,只需要点击右上角的开关就能启用,如果这个 MCP没有敏感风险的话,可以勾选自动执行工具,这样效率高点。


案例和参数
接下来就是案例的部分我在这里会介绍和演示一些我用着还行的 MCP 服务用法,另外也会写上他们的来源和 Chatwise 中对应的参数,你可以直接添加,这些都是我试过能跑的。
从 Figma 获取设计稿生成网页
使用的 MCP 是 Framelink Figma MCP Server:https://mcp.so/server/Figma-Context-MCP/GLips
## ChatWise 参数命令:npx -y figma-developer-mcp --stdio --figma-api-key=粘贴获取到的Figma API Key替换
这里我们需要去Figma 软件里获取一下我们的API Token,具体的步骤是:
-
- 点击左上角的头像找到设置(Settings)
-
- 然后找到安全(Seccurity)选项,找到创建新的 Token(Generat new Token)
-
- 之后File content选择只读,Dev resources也选择只读就行


然后我们就可以在自己的 figma 设计稿里面找到一个画板然后在右键的复制里找到「复制到所选项的链接」。

最后在下面输入框中启用 Figma MCP 后把你复制的链接扔给他让他生成网页就行,这里推荐用 Gemini 2.5 Pro 或者 V3 0324,都可以白嫖。

自己手搓 AI 搜索(Exa&Time)
接下来教大家自己手搓一个 AI 搜索,需要用到两个插件首先是 Claude 的官方 MCP 时间获取服务,因为在不联网的情况下模型是不知道现在的时间的,在搜索类似这几天的新闻这种问题的时候他就会瞎选时间。
下面就是 Time 这个服务的参数,很简单就是拉取服务,然后设置一下你的时区就行,我这里设置的上海。
## ChatWise 参数命令:uvx mcp-server-time --local-timezone Asia/Shanghai
再然后就是 Exa 的 MCP 了,这个也需要一个 API,但还好 Exa 的 API 是免费的,你可以直接去这里点创建复制就行:https://dashboard.exa.ai/api-keys
## ChatWise 参数命令:npx -y exa-mcp-server环境变量:EXA_API_KEY=用你申请到的 API 替换这段文案
都配置好之后我们就可以在输入框的位置启动这两个 MCP,进行 AI 搜索了,我这里会让他先获取时间再获取搜索内容,但 Cluade 这种模型应该不需要提醒他获取时间,其他模型他自己不获取的话可以通过提示提醒他一下。

利用 MCP 搭建 Obsidian AI 知识库
这里我使用的是Obsidian Model Context Protocol(https://mcp.so/zh/server/mcp-obsidian/smithery-ai)这个服务,可以检索你的 Obsidian 知识库的笔记让 AI 分析。
比较坑的是他们这个文档写的真实坑啥也没写,我好不容易才找到怎么用。
这里我们需要做个准备工作,先去 Obsidian 的「第三方插件」-「社区插件市场」找到 Loccal Rest API 这个插件安装并且启用/

然后我们就可以在 Loccal Rest API 这个插件的设置里面看到我们的 API Key 了。

然后访问这个链接:https://coddingtonbear.github.io/obsidian-local-rest-api/
点击右下角的「Authorize」输入刚才的 API Key 启用服务就可以了。

还需要准备一个东西就是你的 Obsidian 仓库本地文件位置,我们需要点击 Obsidian 左下角你的仓库这里的管理仓库。

然后选择在「访达中显示仓库文件夹」,找到文件夹之后按住「Option」键右键选择复制这个文件夹的路径,记下来备用。

这时候我们终于可以回到 Chatwise 中了,
## ChatWise 参数命令:uv tool run mcp-obsidian --vault-path 替换为你Obsidian仓库的文件路径环境变量:OBSIDIAN_API_KEY=用你Loccal Rest API插件中的Key替换这段文案
最后在 Chatwise 输入框启用 MCP 服务后就可以让任何 AI 模型检索你的内容了,比如我这里让他在指定文件夹查找关于 MCP 的文章,然后可以基于这些文章做 AI 知识库。

利用高德 MCP 检索附近咖啡馆并创建网页
接下来我们用高德的 MCP 搜索一下家附近的咖啡馆,而且用我之前的网页生成提示词给搜索结果做的展示的网页,点子主要来自 @AI产品黄叔 。
首先我们需要去高德(https://console.amap.com/dev/key/app)申请一个个人的 API,需要按要求完成个人开发者的认证。
之后在控制台的「我的应用」这里创建应用就行,创建完成之后选择需要创建 Key 的应用,点击【添加 Key】,表单中的服务平台选择【Web 服务】,之后复制你的 Key 备用。

接下来就是在 ChatWIse 填写下面的命令和环境变量,注意在环境变量这里填写你申请的 Key。

## ChatWise 参数命令:npx -y @amap/amap-maps-mcp-server环境变量:AMAP_MAPS_API_KEY="用你申请的高德API Key替换这段文字"
然后在聊天窗口开启高德的 MCP,先让他获取你家附近的经纬度,然后让他获取附近的咖啡馆的详细信息。
之后我们就可以用我在《为了让大家一键生成更漂亮的可视化网页,我写了个工具!》写的提示词让他生成一个家附近的咖啡馆展示网页了。
从 arxiv 检索和下载论文
AI 从业者应该都会经常看论文,那天发现arxiv都有 MCP 了,而且除了查询之外还可以自动下载论文的 PDF 版本。
这个直接使用命令就行,不需要环境变量,Windows 用户注意需要把 Path 的路径换成你想要保存论文的文件夹。
## ChatWise 参数命令:uv tool run arxiv-mcp-server --storage-path /path/to/paper/storage
然后我们就可以愉快的检索和下载论文了,比如这里我们就让 MCP 从 arxiv 获取最近的 10 篇 AI 相关论文和介绍。

与 AI 对话快速创建 Flomo 笔记
虽然有很多笔记软件一些短的笔记还是用 Flomo 用的顺手,那天看到逗哥写了一个 Flomo 的 MCP 服务。
这样跟 AI 对胡生成的很多不错的结果都可以直接保存了,而且可以结合其他 MCP 使用,比如将上面 Exa 的搜索结果直接保存到我们的 Flomo 账号。
我们需要提前从你的 Flomo 设置里复制你的 API 链接,准备配置的时候放到环境变量里面,直接在这个页面复制就行:https://v.flomoapp.com/mine?source=incoming_webhook

然后就是在 Chatwise 填写对应的命令和环境变量。
## ChatWise 参数命令:npx -y @chatmcp/mcp-server-flomo环境变量:FLOMO_API_URL=更换为你从Flomo获取的API链接
你还可以要求 AI 在保存 Flomo 的时候带上你对应的标签方便管理,麻了我标签字打错了。

好了今天的教程就到这里了。
MCP协议的出现,标志着AI工具生态正从"封闭花园"走向"开放广场"。
如同互联网的HTTP协议统一了网页访问标准,MCP正在统一AI与工具的交互方式。这种统一不仅是技术层面的进步,更是AI使用范式的革命。
MCP的意义在于将AI从"被服务"的角色转变为"主动服务"的角色,让普通用户也能定制专属的AI工作流。
半年前,只有大公司才能打造的AI能力,现在正逐步开放给每一位有一点技术思维的普通人。
然而,MCP目前面临的困境也值得我们思考:技术的民主化与易用性之间总是存在矛盾。一方面我们希望技术足够开放和灵活,另一方面又希望它足够简单直观。
这种矛盾在每一项新兴技术发展初期都会出现,但随着生态的成熟,这种矛盾终将被解决。
希望今年能看到只需在AI助手中点击"安装工具",能能使用的 MCP。
作为用户,不妨现在就开始尝试这些看似复杂的技术。即使过程有些曲折,这种尝试本身就是对未来的一种投资。
在AI时代,熟练使用工具将成为我们的核心竞争力,而了解底层原理将让你比他人更早一步掌握未来。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】


为什么要学习大模型?
我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。


大模型入门到实战全套学习大礼包
1、大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

2、大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

3、AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

4、大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

5、大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

适用人群

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多推荐



所有评论(0)