如今的AI生态和30年前的互联网生态非常相似,所有人都被ai影响,冲击,所有的视角都在关注这里。老王是产品经理出身,不仅仅要会用五花八门的应用侧的aigc,更要从底层逻辑深度思考。如下这10个概念,极度重要,它们是理解AI非常关键的知识点。

另外,老王还给大家准备了,优质的免费AI教学,大家不用到处找课程了,全部免费,直接跟着学习就行。,先关注,文末有参考方法

**一、**神经网络

神经网络这是个啥,本质上它是一种模仿人脑神经元连接方式的计算模型。

你可以把它想象成一张巨大的渔网,每个网结就是一个神经元****节点,而连接网结的绳子就是权重参数。当数据从这张网的一端流入时,会经过层层节点的计算和传递,最终在另一端输出我们想要的结果。

这套机制的精妙之处在于自动学习能力

传统编程需要研发手把手告诉计算机每一步该怎么做,遇到什么情况走什么分支,这种方式在面对复杂场景时会变得极其笨拙。

神经网络完全颠覆了这个逻辑,它不需要你显式地编写规则,而是通过海量数据的训练过程自己摸索出规律。举个例子,你想让机器识别猫和狗的图片,不用告诉它猫有尖耳朵狗有长舌头这些特征,只需要喂给它几万张标注好的图片,它就能自己学会区分。

神经网络的核心架构分为三层:

输入层负责接收原始数据,可能是图片的像素值、文字的编码向量或者音频的频谱信息;

隐藏层是真正干活的地方,现代深度学习模型可能有几十层甚至上百层隐藏层,每一层都在提取不同层次的特征;输出层则给出最终预测,可能是一个分类标签、一段生成的文字或者一个决策动作。

反向传播****算法是让这张网真正"学会"东西的关键。当模型输出一个预测结果后,系统会计算这个结果和正确答案之间的差距,也就是损失值

接着这个误差信号会从输出层一路反向传播回去,告诉每一层的每个神经元:“兄弟,你的参数偏了,往这个方向调一调”。经过成千上万次这样的调整迭代,整张网络的参数就会收敛到一个比较理想的状态。

从产品视角来看,神经网络是所有AI能力的技术底座

无论是抖音的推荐算法、微信的语音转文字、还是美图秀秀的一键美颜,背后都跑着某种形式的神经网络。

作为产品经理,你不需要会推导数学公式,但必须理解这套机制的能力边界:它擅长处理非结构化数据、擅长发现隐藏模式、擅长做模糊匹配,但它也需要大量数据喂养、需要算力支撑训练、而且很多时候是个黑箱无法解释决策逻辑。

现代神经网络已经演化出众多变体。卷积神经网络专门处理图像,它的卷积核就像一个滑动的放大镜,能够捕捉局部特征然后组合成全局理解;

循环神经网络擅长处理序列数据,它有记忆功能可以关联上下文信息;Transformer架构更是彻底改变了游戏规则,它的自注意力机制让模型能够同时关注输入序列的所有位置,这正是大语言模型得以崛起的技术根基。

二、RAG

检索增强生成技术是当下企业级AI应用最炙手可热的范式。它的出现直击大语言模型的致命软肋:幻觉问题知识过时

你肯定遇到过这种情况,问AI某个专业问题,它一本正经地给你编一堆看起来很像回事但完全错误的答案。这不是模型不够大,而是它的知识被锁死在训练数据的截止时间点,而且没有外部事实作为锚点。

RAG的核心思想用一句话概括就是:先查资料再回答

这和我们人类的行为模式完全一致,面对一个不确定的问题,聪明人会先去翻文档查资料确认事实,而不是凭记忆硬编。RAG把这套流程工程化了,形成了一条检索加生成的双引擎流水线

整个系统的第一步是知识库构建

你需要把企业内部的文档、产品手册、FAQ、历史工单等各种资料灌进去。但这些文档不能原样存储,要先经过文本分块处理,把长文档切成几百字一段的小块,因为检索的粒度太粗会影响精准度。

接着每个文本块会被送进向量编码模型,转换成一串高维数字,这就是所谓的语义向量。这些向量会存入专门的向量数据库,为后续的相似度检索做准备。

当用户提出问题时,RAG的检索模块开始工作。系统会用同一个编码模型把用户问题也转成向量,然后在向量数据库里做近邻搜索,找出语义上最相关的若干个文本块。这里的关键洞察是:语义相近的内容在向量空间里的距离也相近,所以通过计算向量距离就能实现意图匹配,比传统关键词搜索智能太多。

拿到检索结果后,系统会把这些文本块和用户的原始问题拼接在一起,组装成一个增强版的提示词,再送给大语言模型生成最终回答。这时候模型就不是凭空瞎编了,而是基于你提供的参考资料来组织语言。这套机制相当于给AI装了一个外挂记忆体,而且这个记忆体可以随时更新,不需要重新训练模型。

当然RAG不是银弹,它也有自己的挑战需要持续优化。

三、Agent

如果说RAG让AI学会了查资料,那智能体技术就是让AI学会了干活。这是一个野心更大的方向,目标是打造能够自主规划、调用工具、执行任务的AI系统,本质上是在构建一种新型的数字劳动力。

传统AI交互是单轮问答模式:用户提问,模型回答,结束。

这种模式下AI只是一个被动响应的角色,无法处理复杂任务。现实世界的工作往往需要多步骤协作,比如你让助理帮你订下周去上海的差旅,这不是一句话能完成的事情,需要查日程确定时间、搜航班比较价格、看酒店评估位置、综合预算做决策、最后完成预订并同步日历。Agent框架就是要让AI具备完成这类多步骤复合任务的能力。

Agent的核心架构由四个模块组成。

感知模块负责接收和理解用户的任务指令,不仅要解析字面意思,还要推断背后的真实意图和约束条件。

规划模块是大脑中枢,它会把一个大任务拆解成可执行的子任务序列,并动态调整计划以应对执行过程中的变化。行动模块连接着各种外部工具,可能是搜索引擎、数据库、API接口、甚至是其他软件系统,Agent通过调用这些工具来实际执行每个子任务。

记忆模块则维护着任务的上下文状态,记录已经完成了什么、当前进展到哪里、还有什么待处理。

工具调用能力是Agent区别于普通聊天机器人的关键特征。

通过工具接口,模型的能力边界被极大扩展了。它可以调用计算器做精确数学运算,调用搜索引擎获取实时信息,调用代码解释器执行程序,调用企业内部系统读写数据。

从产品形态来看,

个人效率agent可以帮你管理日程、整理邮件、做会议纪要、跟进待办事项,真正充当一个不知疲倦的私人秘书。

数据分析****Agent可以根据自然语言指令自动写查询语句、跑数据、生成图表报告,让业务人员不再依赖数据团队。

客服Agent不仅能回答问题,还能帮用户查订单、改地址、申请退款,完成闭环服务。编程Agent能够理解需求、写代码、调试错误、部署上线,辅助甚至替代部分开发工作。

你好,我是产品经理陈天。我们正在经历一场人类历史上最宏大的数字物种大爆发,要想在这个时代构建有生命力的产品,你不能只看表面的功能堆砌,必须深入到系统的底层脉络去理解由于算力、数据和算法纠缠所涌现出的新逻辑。今天我们不谈虚的,就着这三个核心概念,把AI原生应用的骨架给你拆解清楚。

四、MCP

我们再聊聊MCP

在很多人的认知里,大模型就像是一个被关在黑盒子里、智商极高但在物理世界里全身瘫痪的哲学家。它能吟诗作对,能推演代码,但它没法帮你订一张机票,也没法直接读取你本地数据库里的实时库存。

为了解决这个问题,过去的做法是给这个大脑硬连线,针对每一个具体的应用场景写一套专用的适配器,这种点对点的硬编码方式不仅效率低下,而且极度脆弱,一旦外部系统升级,连接就断了。

这时候MCP就显得尤为关键,你可以把它理解为数字世界的通用USBType C****标准

它的核心价值在于解耦标准化。想象一下,你不再需要为每一个新的智能家居设备去重新布线,只要它符合标准接口,插上就能用。

MCP就是大模型与外部数字世界交互的通用翻译器,它定义了一套严谨的握手协议,让大模型这个数字大脑能够以一种标准化的姿态,去调用任何符合该协议的数字肢体

在没有它之前,我们做产品是在堆功能,每一个工具的接入都是一次定制化的开发,边际成本极高。而有了MCP,产品经理关注的重点从如何连接变成了连接什么

你可以把搜索工具、文件读取工具、甚至是执行复杂代码的解释器,都封装成一个个标准的MCP****服务器。当大模型需要解决问题时,它不再是盲目地乱撞,而是通过MCP这个标准化接口,优雅地查阅工具清单,明白每个工具能干什么、需要什么参数,然后精准地拿起最合适的那个工具去执行任务。

未来的应用开发,很可能不再是构建一个巨大的全能APP,而是各种垂直领域的服务商提供标准的MCP****接口,由用户的私人大模型助理根据需求,动态地组装这些能力。

对于我们产品人来说,这意味着竞争壁垒的转移,谁能提供更丰富、响应更快、权限管理更精细的MCP****服务,谁就能在这个AI****操作系统的生态位中占据上游。

五、模型与参数

接下来我们要打破对模型这个词的刻板印象。

不要把它想象成一个传统的软件程序,或者一堆死板的代码逻辑。模型本质上是人类互联网所有公开文本数据的一个高维概率分布的压缩体

你可以把它看作是互联网在这个特定时间切片下的全息投影,或者是被冻结的世界知识快照。当我们谈论一个模型文件时,我们谈论的是一个巨大的、静态的二进制文件,这里面存储的不是一行行指令,而是数以亿计甚至万亿计的参数

那么什么是参数?这是理解大模型智慧涌现的钥匙。

如果把模型比作一个超级复杂的仿生大脑,那么参数就是这个大脑中神经元之间连接的突触****权重。在神经网络中,知识并不是像字典一样被索引存储的,而是被打碎、揉烂,然后通过参数之间的强弱关系,隐含地分布在整个网络结构中。

每一个参数仅仅是一个浮点数,单独看它没有任何意义,但当数千亿个这样的数字组合在一起,通过复杂的数学结构相互作用时,就奇迹般地涌现出了逻辑推理、语言理解甚至情感模拟的能力。

这就好比我们的大脑,你切开来看不到“苹果”这个词,也找不到一段关于“骑自行车”的记忆代码,这些概念都存储在神经突触的连接强度里。

参数量的大小,直接决定了这个大脑的脑容量分辨率

一个70亿参数的模型可能像是一个聪明的初中生,能处理通用的对话;而一个数千亿参数的模型则像是一个博学的教授,它能捕捉到人类语言中极其微小的细微差别,理解复杂的反讽,甚至进行多步逻辑推演。

从产品设计的角度,理解模型与参数意味着我们要对算力成本智能密度有极强的敏感度。越大的参数意味着越强的智能,但也意味着越慢的推理速度和越高的部署成本。

六、训练 vs 推理

最后我们来厘清训练推理这两个经常被混淆的概念。这不仅仅是技术流程的区别,更是两种完全不同的经济模型能量消耗模式

训练是一个逆熵的过程,是构建智能的阶段。你可以把它想象成是一个人类从受精卵发育到大学毕业的全过程,或者是炼金术士在熔炉中提炼贤者之石。

在这个阶段,我们需要喂给算法海量的数据,动用成千上万张显卡组成的算力集群,日以继夜地进行高强度的数学运算。这个过程的目标是确定模型中那数千亿个参数的最佳数值,让模型能够尽可能准确地预测下一个字。

训练是一次性的、巨大的固定资产投入,它消耗惊人的电力和时间,最终产出的是那个静态的模型文件。这就像是编写一本百科全书,或者录制一张唱片,由于其高昂的门槛,这注定是少数科技巨头的游戏。

推理则是价值兑现的过程,是使用智能的阶段。

当模型训练好之后,它就被部署到服务器上,当用户输入一个问题,模型利用已经固定好的参数,快速计算出答案,这个过程就是推理

打个比方,如果训练是耗时数年的寒窗苦读,那么推理就是在考场上奋笔疾书;如果训练是工厂里制造一辆汽车,那么推理就是把这辆车开上路。

推理阶段,模型通常不会学习新的知识,它的参数是冻结的,它只是在应用已有的知识来处理新的输入。

对于互联网产品经理来说,我们绝大多数时候面对的都是推理侧的优化。我们关注的是首字生成时间,是每秒生成的Token数量,是如何通过提示词工程来激发模型在推理时的最佳表现。

从商业模式上看,训练属于资本性支出,是一场豪赌,赌的是你的模型能涌现出比别人更强的智能;

推理属于运营性支出,是流水生意,你每服务一个用户、每生成一段文字,都要消耗实实在在的算力成本。

理解了训练推理的区别,你就能明白为什么现在的AI应用都在拼命优化推理成本,为什么端侧模型——即直接在用户手机上进行推理——会成为下一个兵家必争之地。

因为只有将昂贵的云端推理转移到免费的端侧推理,AI商业模式的飞轮才能真正以低成本无限转动起来。这不仅是技术的考量,更是商业逻辑闭环的必然选择。

七、Token

我们首先要建立一个全新的经济直觉,那就是在AI的国度里,汉字或单词并不是流通的货币,Token才是。你必须把它理解为算力时代的数字原子

在非技术背景的产品经理眼里,这往往被简单地等同于字符数,这是一个极其危险的误解。大模型并不像人类一样通过阅读一个个完整的句子来理解世界,它的视觉更像是一台高精度的粉碎机,将输入的所有文本切碎成一个个由数字代表的碎片,这些碎片就是词元。下图是老王查询不到10次,使用的token。

这个概念之所以极其重要,是因为它直接定义了我们与AI交互的颗粒度成本模型

在大模型的视角里,英文单词apple可能是一个Token,但复杂的中文词汇或者一段特殊的代码可能会被切分成多个Token

这不仅关乎计费,更关乎信息密度。不同的分词算法会导致同样的文本消耗不同数量的算力资源,这就好比同样是运送货物,有的打包方式紧凑,有的则松散。对于产品经理而言,这意味着我们在设计提示词或者处理用户输入时,本质上是在计算算力预算

你的每一次提问,AI的每一个回答,都在消耗这种不可再生的算力资源。如果你还在用传统的字符数来估算API调用的成本,那你一定会发现账单与预期严重不符。

深入到技术实现层面,Token不仅仅是计费单位,它还是模型注意力机制的基本载体。我们常说的上下文窗口限制,本质上就是模型一次性能够处理的Token数量上限。

你可以把这个上限想象成是一个人的短期记忆容量。当对话长度超过这个限制时,最早输入的Token就会像流水线末端的废料一样被丢弃。

这就导致了我们在设计长文本处理功能时,必须引入滑动窗口摘要压缩等策略。我们不能天真地认为把整本书扔给模型它就能全部记住,每一个进入窗口的Token都在占用宝贵的注意力资源。

Token的生成速度直接决定了产品的用户体验。当你在屏幕上看到AI逐字蹦出答案时,那实际上是模型在进行概率计算,一个个地预测下一个最可能的Token是什么。

这种流式输出的速率,受限于模型参数规模和推理算力。作为产品负责人,你需要权衡的是,为了追求极致的智能,用户是否愿意忍受更长的等待时间?或者在某些高频低智的场景下,我们是否应该选用更廉价、生成速度更快的模型?

这一系列决策的基石,都是对Token这个最小单位的深刻理解。它不再是冷冰冰的技术术语,它是你产品商业模型中流淌的血液,决定了你的毛利空间和交互节奏。

八、微调

接下来说说微调,这是被误解最深的一个概念。

很多初阶产品经理有一个巨大的思维误区,认为微调是用来给模型灌输新知识的。他们会天真地想,如果我要做一个法律顾问AI,我就把所有的法律条文通过微调塞进模型里。大错特错。

如果把预训练模型比作一个刚刚从哈佛大学毕业的通才高材生,他博古通今但不懂你公司的具体业务流程,那么微调绝对不是让他去图书馆死记硬背更多的书,而是给他做入职培训

你很难通过微调让一个模型精准记住你公司上个月的实时销售数据,或者某条晦涩的法律条款细节,那是数据库和检索增强生成技术该干的事。

微调真正擅长的是让模型学会像你们公司的金牌客服那样说话,学会输出符合你特定系统要求的JSON格式,或者学会某种特定的代码风格。它是在调整模型内部参数的权重,让它在概率分布上更倾向于产生你所期望的风格范式

通用的GPT模型可能在回答问题时喜欢长篇大论,引用莎士比亚,这在闲聊时很棒,但在医疗诊断或金融分析场景下就是灾难。

通过微调,我们可以拿出一千条专家医生的高质量问答数据喂给它,告诉它:在这个领域,你要用这种简洁、严谨、分点陈述的方式来回答问题。

经过这个过程,模型的知识总量并没有本质增加,但它的思维方式表达习惯被彻底重塑了。这就是为什么我们说微调是将通用大模型转化为行业垂直模型的关键手段。

从商业的角度来看,微调的数据集才是你真正的护城河。

大模型本身会越来越像水电煤一样成为基础设施,任何人都可以租用最强的基座模型。但是,只有你拥有那几万条经过人工精心标注的、带有行业Know-How的高质量指令数据。这就像是大家都买得起同样的顶级食材,但只有你掌握了米其林三星的烹饪秘方。这个秘方就是你的微调数据集。

一个经过良好微调的百亿参数小模型,在特定任务上的表现往往能吊打未经微调的千亿参数超大模型。

我们在设计AI产品架构时,往往不是直接调用通用的API,而是通过SFT监督微调,训练出一个属于我们自己的特种兵模型

它不需要什么都懂,但它在我们需要它解决的那个细分领域里,必须是动作最标准、反应最迅速的专家。

九、Transformer 架构

我们正处于一个被称为Transformer的时代。自然语言处理领域被一种线性思维所统治,那时候的模型读文章就像人类读长篇小说一样,必须从左到右、一个字一个字地读。

这种被称为循环神经网络的旧架构有一个致命缺陷,那就是遗忘

读到文章结尾时,它往往已经记不清开头讲了什么,而且这种串行处理的方式极度依赖上一步的计算结果,导致它无法利用大规模硬件并行加速,算力被锁死在了时间的维度上。

Transformer架构的横空出世,彻底打破了这个局面。

你可以把它想象成拥有上帝视角的超级阅读者。它不再是一个字一个字地啃,而是一眼就能把整篇文章的所有文字同时尽收眼底。

这种架构的核心魔力在于自注意力机制

当你在读“苹果”这个词时,你的大脑会瞬间联想到“水果”、“乔布斯”或者“红色”,而不是联想到“自行车”。Transformer做的就是这件事,它能够计算出句子中每一个字与其他所有字之间的关联强度

无论这两个字在文章中相隔多远,只要逻辑上有关联,注意力机制就会像一束聚光灯一样,把它们紧紧联系在一起。这让模型第一次真正理解了语境,明白在“银行涨水了”和“去银行存钱”这两个句子里,同一个词代表着完全不同的含义。

无论是图片、视频、音频还是生物大分子结构,只要能被转化为序列数据,都能被扔进这个架构里进行处理。这就解释了为什么现在的AI模型正在迅速走向多模态

因为在Transformer看来,英语、中文、Python代码、像素点甚至是DNA序列,本质上都是一样的,都是通过注意力机制相互纠缠的信息流。

作为一个产品架构师,当你意识到底层是一个统一的、通用的特征提取器时,你在设计产品时就不会再把文本处理和图像处理割裂开来看待,而是会思考如何利用这种跨模态的理解力,创造出前所未有的交互体验。这是AI原生应用最底层的物理定律

十、梯度下降

如果说Transformer搭建了模型宏伟的宫殿,那么梯度下降就是让这座宫殿充满智慧的进化法则

很多非技术背景的人会觉得机器学习很神秘,仿佛机器真的产生了意识。但如果我们剥开这层玄学的面纱,还原到数学的本质,机器的学习过程其实就是一个不断犯错并修正的过程,而指导这个过程的核心算法就是梯度下降

假如,你被蒙住双眼,放置在一个连绵起伏、大雾弥漫的高山上。你的目标是找到山谷的最低点,因为在那里,模型的预测误差最小。你看不见全貌,不知道哪里是谷底,你唯一能做的,就是用脚去探查脚下的地面,感觉哪个方向是向下倾斜的。

这个倾斜的坡度,在数学上就是梯度。当你感知到某个方向在向下倾斜时,你就沿着这个方向迈出一步。这就是梯度下降的直观隐喻:通过计算当前的误差相对于参数的变化率,来决定下一步该怎么调整参数。

在这个过程中,有一个至关重要的概念叫学习率,也就是你迈出那一步的步长。这体现了极其深刻的权衡哲学

如果你步子迈得太大,可能会直接跨过谷底,冲到对面的山坡上,导致模型永远无法收敛,像个无头苍蝇一样乱撞;

如果你步子迈得太小,像裹脚老太太一样挪动,那么可能走上几年也走不到谷底,导致训练成本极其高昂,效率低下。所有的模型训练专家,本质上都在干一件事:精心调节这个步长,让模型在训练初期能大步流星地寻找方向,在接近谷底时能小心翼翼地逼近最优解

从产品的视角来看,梯度下降揭示了智能产生的成本结构。

每一次参数的更新,每一次沿着梯度方向的迈进,都需要消耗巨额的算力和电力。当我们说一个模型训练了三个月,实际上就是说这个蒙眼人在高维的数学空间里走了三个月的路,反复进行了无数次试探和调整。

而且,这个山谷地形极其复杂,充满了局部最优解的陷阱。模型可能会掉进一个小坑里,误以为自己到了最低点,从而停止了进步。

理解梯度下降,能让你对模型迭代有更理性的预期。当你的产品出现Bad Case(坏案例)时,本质上就是在这个高维空间里,模型还没有找到通往那个特定场景最优解的路径。

我们做RLHF,其实就是在给这个蒙眼人喊话,告诉他“别往那边走,那边是悬崖”,从而人为地修正梯度的方向,让模型不仅能找到数学上的最低点,还能找到符合人类价值观的价值高地

以上详细介绍了下AI必懂的概念,后面还会继续更新这个系列

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐