【万字长文】一文搞懂VLM视觉语言模型:从原理到实践的完整指南(2025)
视觉语言模型(VLM)是融合计算机视觉与自然语言处理的多模态AI技术,通过视觉编码器、语言模型和连接模块实现图文理解。本文系统解析了VLM的工作原理、推理逻辑(Prefill/Decode阶段)、优化方法(KV Cache、量化等)、评测体系及视觉幻觉等挑战,为开发者提供了从理论到实践的全面指导,助力掌握这一推动AI发展的重要技术。
视觉语言模型(VLM)是融合计算机视觉与自然语言处理的多模态AI技术,通过视觉编码器、语言模型和连接模块实现图文理解。本文系统解析了VLM的工作原理、推理逻辑(Prefill/Decode阶段)、优化方法(KV Cache、量化等)、评测体系及视觉幻觉等挑战,为开发者提供了从理论到实践的全面指导,助力掌握这一推动AI发展的重要技术。
引言
随着人工智能技术的飞速发展,我们正在进入一个多模态(Multimodal)信息的时代。文本、图像、声音等多种形式的数据交织在一起,构成了我们对世界更完整的认知。大型语言模型(LLM)在处理和生成文本方面取得了巨大成功,但它们本质上是“盲人”,无法理解图像等视觉信息。为了打破这一局限,视觉语言模型(Vision-Language Model, VLM)应运而生,它能够同时理解和处理文本与图像,实现了从“读懂文字”到“看懂世界”的跨越。
本文将系统性地介绍 VLM 的核心概念,深入探讨其工作原理、推理逻辑、性能优化、测试方法及评测体系,并展望其未来挑战。无论您是 AI 领域的从业者,还是对前沿技术充满好奇的学生,本文都将为您提供一个全面而深入的 VLM 知识框架。
目录:
- 什么是 VLM 大模型
- VLM 大模型的原理(如何工作)
- VLM 的推理逻辑
- VLM 的推理优化方法
- VLM 的推理测试方法
- VLM 的评测指标
- VLM 目前还有哪些挑战
- 结论
一、什么是 VLM 大模型
VLM(Vision-Language Model)是一种能够同时处理和理解多种模态(通常是图像和文本)信息的人工智能模型。它结合了计算机视觉(CV)和自然语言处理(NLP)的技术,旨在让 AI 像人类一样,能够通过“看图说话”的方式来理解世界。
与一次只能处理一种信息类型的单模态模型(如仅处理文本的 GPT 或仅处理图像的 ResNet)不同,VLM 能够接收图像和文本作为输入,并根据这些输入生成文本、边界框或其他形式的输出。这种能力使其能够完成更复杂的任务,例如:
- 视觉问答(VQA):根据图片内容回答问题(例如,“图片中的狗是什么品种?”)。
- 图像描述(Image Captioning):为图片生成一段描述性文字。
- 多模态对话:与用户进行基于图片内容的连续对话。
VLM 的出现极大地扩展了 AI 的应用场景,使其在自动驾驶、智能客服、内容创作和人机交互等领域展现出巨大潜力。
二、VLM 大模型的原理(如何工作)
VLM 的核心思想是将不同模态的信息(图像和文本)转换为统一的表示形式,以便大型语言模型(LLM)能够理解和处理。其工作原理通常包含以下几个关键部分:
- 视觉编码器(Vision Encoder):
-
作用
:负责“看懂”图像。它将输入的图像转换为一系列数字向量(Embeddings),这些向量捕捉了图像的关键视觉特征。
-
常用模型
:通常采用预训练的视觉模型,如 ViT (Vision Transformer) 或 CLIP 的 Vision Encoder。这些模型通过在海量图像数据上进行训练,学会了如何提取有意义的视觉信息。
- 语言模型(Language Model):
-
作用
:VLM 的“大脑”,负责处理文本信息和进行逻辑推理。
-
常用模型
:通常是一个强大的预训练 LLM,例如 Llama、Mistral 或 Gemma。
- 连接模块(Connector / Projector):
-
作用
:作为“翻译官”,负责将视觉编码器生成的视觉特征(Image Embeddings)转换为语言模型能够理解的格式。它将视觉向量投影(Project)到与文本词向量(Word Embeddings)相同的语义空间中。
-
实现方式
:通常是一个或多个线性层(Linear Layer)或一个轻量级的多层感知机(MLP)。
工作流程: 当用户输入一张图片和一段文本(例如,“这张图里有什么?”)时:
- 图像处理:图片首先被送入 视觉编码器,生成一组浓缩了图像内容的视觉特征向量。
- 特征对齐:这些视觉特征向量随后通过 连接模块,被转换成 LLM 能够识别的“视觉词向量”。
- 多模态输入融合:转换后的“视觉词向量”与用户输入的文本问题的词向量结合在一起,形成一个统一的输入序列。这个序列就好像一句话,其中一部分是描述图像的“特殊词语”。
- 文本生成:最后,这个融合了图像和文本信息的序列被送入 LLM。LLM 基于其强大的语言能力和对输入图像的理解,生成最终的文本答案。
通过这种方式,VLM 成功地将“看”和“说”的能力结合在了一起,实现了对多模态世界的认知和表达。
一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
三、VLM 的推理逻辑
VLM 的推理过程可以看作是 LLM 自回归(Autoregressive)生成过程的扩展,但其特殊之处在于需要处理两种不同模态的输入。整个推理过程主要分为两个阶段:Prefill(预填充) 和 Decode(解码)。
3.1 Prefill 阶段:理解输入
Prefill 阶段的核心任务是让模型“理解”用户提供的所有输入信息,包括图像和文本,并为后续的文本生成做好准备。这个阶段计算量密集,但只执行一次。
- 图像处理与编码:
- 输入的图像首先通过视觉编码器(如 ViT)进行处理,生成一组固定长度的图像特征向量(Image Embeddings)。这组向量代表了图像的核心视觉信息。
- 文本处理与编码:
- 用户输入的文本(Prompt)被分词(Tokenize),然后通过 LLM 的词嵌入层(Embedding Layer)转换为文本特征向量(Text Embeddings)。
- 多模态特征融合:
- 为了让 LLM 能够区分和理解图像信息,图像特征向量会被插入到文本特征向量序列的特定位置。通常,我们会使用一些特殊的 Token 作为占位符,然后将图像向量替换到这些位置。
- 融合后的序列
[Text_Embeds,Image_Embeds,Text_Embeds]
成为 LLM 的最终输入。
- 计算初始 KV Cache:
- 这个融合了图文信息的长序列被一次性输入到 LLM 中进行前向计算。在计算过程中,模型会为输入序列中的每一个 Token 生成对应的 Key (K) 和 Value (V) 向量,并将它们存储在一个称为 KV Cache 的高速缓存中。
- KV Cache 是注意力机制(Attention)的关键优化,它避免了在后续生成每个新 Token 时重复计算历史信息的 K 和 V,从而极大地提升了推理速度。
Prefill 阶段结束后,模型已经将全部的图文上下文信息编码到了初始的 KV Cache 中。
3.2 Decode 阶段:生成文本
Decode 阶段是一个自回归的循环过程,模型逐个 Token 地生成答案。
- 生成第一个 Token:
- 模型利用 Prefill 阶段生成的 KV Cache,通过一次前向计算,预测出下一个最有可能的 Token(即答案的第一个词)。
- 更新 KV Cache:
- 新生成的这个 Token 也会被计算出自己的 K 和 V 向量,然后被追加(Append)到现有的 KV Cache 中。这样,KV Cache 的长度就增加了一位,包含了更多上下文。
- 循环生成:
- 模型以新生成的 Token 作为输入,利用更新后的(更长的)KV Cache,继续预测下一个 Token。
- 这个“预测 -> 更新 -> 再预测”的过程不断重复,直到模型生成一个特殊的终止符(如
[EOS]
)或达到预设的最大长度。
总结:VLM 的推理逻辑是一个“先理解,后表达”的过程。Prefill 阶段是理解,将复杂的图文信息一次性压缩进 KV Cache;Decode 阶段是表达,利用 KV Cache 中存储的上下文,逐字逐句地生成连贯且与视觉信息一致的回答。
四、VLM 的推理优化方法
VLM 的推理优化与 LLM 有很多共通之处,但由于引入了视觉数据,也带来了一些独特的挑战和优化方向。优化的核心目标是降低延迟(Latency)、提高吞吐量(Throughput) 并 减少显存占用。
- KV Cache 优化:
-
挑战
:图像经过 Vision Encoder 后通常会生成大量的 Image Token(例如,一张图片可能被转换为数百个 Token),这些 Token 会在 KV Cache 中占据大量显存,尤其是在处理长序列或高分辨率图像时。
-
优化方法
:
PagedAttention
:借鉴虚拟内存分页的思想,将 KV Cache 分块存储,解决了因 Cache 空间不连续导致的内存碎片问题,从而能在有限的显存下支持更长的序列和更大的批处理(Batch Size)。
对图像 Token 的 K/V 进行特殊处理
:由于图像部分的 K/V 在整个生成过程中是固定不变的,可以将它们与文本部分的 K/V 分开管理,甚至进行压缩或共享,以减少冗余。
- Continuous Batching(连续批处理):
-
挑战
:传统的静态批处理(Static Batching)要求批次内所有请求同时开始、同时结束,导致 GPU 在等待最慢请求完成时处于空闲状态,利用率低下。
-
优化方法
:允许在推理过程中动态地将新的请求加入到批次中,当某个请求完成后,其占用的计算资源可以立即被新请求利用。这极大地提高了 GPU 的利用率和系统整体的吞吐量。
- 视觉 Token 优化:
-
挑战
:图像 Token 数量直接影响 Prefill 阶段的计算量和 KV Cache 的大小。
-
优化方法
:
Token 剪枝(Pruning)/合并(Merging)
:通过算法识别并移除或合并那些对最终输出贡献不大的“不重要”的图像 Token,从而在不显著影响性能的前提下,减少计算量。
自适应 Token 数量
:根据图像的复杂度和任务需求,动态调整生成的图像 Token 数量。简单图像使用较少的 Token,复杂图像使用更多的 Token。
- 模型量化(Quantization):
-
方法
:将模型权重和激活值从高精度(如 FP32 或 FP16)转换为低精度(如 INT8, INT4),可以显著减小模型体积和显存占用,并可能利用硬件的低精度计算加速。
-
应用
:适用于对延迟和部署成本敏感的场景。
- 并行计算策略:
-
Tensor Parallelism
:将模型的单层权重矩阵分块到多个 GPU 上,并行计算,适用于单个 GPU 无法容纳模型权重的超大模型。
-
Pipeline Parallelism
:将模型的不同层放置在不同的 GPU 上,形成流水线,适用于模型层数非常深的情况。
- 专用推理引擎:
-
vLLM
:一个开源的高性能 LLM 推理和服务引擎,内置了 PagedAttention 和 Continuous Batching 等先进优化技术,并已扩展支持多模态模型。
-
NVIDIA TensorRT-LLM
:NVIDIA 官方推出的 LLM 推理优化库,通过算子融合(Kernel Fusion)、量化和高效的注意力实现等技术,在 NVIDIA GPU 上提供极致的推理性能。
通过综合运用上述方法,可以显著提升 VLM 服务的效率和可扩展性,使其能够更经济、更快速地部署于实际应用中。
五、VLM 的推理测试方法
对 VLM 服务进行系统性测试是确保其可靠性和性能的关键。测试通常从功能正确性和推理性能两个维度展开。
5.1 功能正确性测试
功能测试旨在验证模型能否对给定的图文输入产生符合预期的、准确的输出。
- 单元测试(Unit Testing):
-
目标
:验证模型内部各个组件(如 Vision Encoder, Projector)的功能是否正常。
-
示例
:
断言 Vision Encoder 的输出维度是否符合预期。
检查 Projector 能否将视觉特征正确地映射到语言模型的嵌入空间。
- 端到端测试(End-to-End Testing):
-
目标
:模拟真实用户场景,验证整个 VLM 系统的综合表现。
-
方法
:
构建评测集
:设计一组具有代表性的“图像 + 问题”对,并为每个问题提供一个或多个标准答案(Ground Truth)。
关键词匹配
:对于答案相对固定的问题(如“图中有几只猫?”),可以通过检查模型输出是否包含“2”、“两只”等关键词来自动评判。
LLM-as-Judge
:对于开放性问题(如“描述一下这幅画的风格”),由于没有唯一标准答案,可以利用另一个强大的 LLM(如 GPT-4)作为“裁判”,来评估 VLM 生成答案的质量、相关性和流畅度。
回归测试
:维护一个核心功能的回归测试集。每当模型更新或代码变更后,运行该测试集,确保核心能力没有退化。
5.2 推理性能测试
性能测试旨在衡量 VLM 服务在不同负载下的效率和资源消耗,确保其能够满足线上服务的性能要求。
- 关键性能指标(Metrics):
-
延迟(Latency)
:
Time to First Token (TTFT)
:从收到请求到生成第一个 Token 的时间。这个指标主要反映了 Prefill 阶段 的耗时,对于交互式应用至关重要。
Time Per Output Token (TPOT)
:生成每个后续 Token 的平均时间。这个指标反映了 Decode 阶段 的效率。
-
吞吐量(Throughput)
:
Requests per Second (RPS)
:服务器每秒能够处理的请求数。
Output Tokens per Second
:整个系统每秒生成的总 Token 数,是衡量系统总容量的核心指标。
-
资源利用率
:
GPU Utilization (%)
:GPU 计算核心的繁忙程度。
GPU Memory Usage (GB)
:显存的占用情况。
- 性能测试方法:
-
负载生成工具
:使用专门的工具(如
locust
,k6
或自定义脚本)模拟大量并发用户,向 VLM 服务发送请求。 -
不同负载下的表现
:测试在不同并发数、不同输入/输出长度下的性能指标,找到系统的性能拐点和瓶颈。
-
分析瓶颈
:结合监控工具(如 NVIDIA Nsight Systems)分析性能瓶颈是在数据预处理、Prefill 阶段、Decode 阶段还是网络传输,从而进行针对性优化。
通过结合功能和性能测试,可以全面评估 VLM 服务的质量,确保其在真实应用中既“聪明”又“高效”。
六、VLM 的评测指标
为了客观、标准化地衡量 VLM 的能力,学术界和工业界开发了众多评测基准(Benchmark)。这些基准通常包含一个大规模的数据集和一套精确的评估指标,用于在特定任务上对不同模型进行打分和排名。
- 视觉问答(Visual Question Answering, VQA):
-
VQA-v2
:最经典的 VQA 数据集之一,要求模型根据图像回答开放式问题。评估时,模型的答案需要与 10 个人类标注员的答案进行匹配,准确率越高,得分越高。
-
TextVQA
:专注于需要模型读取和理解图像中文字才能回答的问题(例如,商店招牌上的文字、产品包装上的说明)。
-
GQA
:强调对图像内容的结构化理解和空间关系的推理。
- 图像描述(Image Captioning):
-
MSCOCO Captions
:要求模型为每张图片生成五个描述。评估指标包括 BLEU、METEOR、CIDEr 和 SPICE,它们从不同角度衡量生成描述与人类参考描述的相似度。
-
NoCaps
:一个更具挑战性的数据集,要求模型为在训练数据中未见过的物体类别生成描述,旨在评估模型的泛化能力。
- 综合能力评测(Holistic Evaluation):
-
MMBench (Multi-modality Benchmark)
:一个全面的评测基准,通过精心设计的单项选择题,系统性地评估 VLM 在属性识别、关系推理、逻辑判断等多个维度上的能力。
-
MME (Multimodal Model Evaluation)
:专注于评估 VLM 在感知(Perception)和认知(Cognition)两个大类下的 14 个子任务上的表现。
-
MMMU (Massive Multi-discipline Multimodal Understanding)
:一个专家级别的多模态评测基准,涵盖了从基础科学到人文艺术的六个学科领域,旨在评估模型在需要大学水平专业知识才能解决的多模态问题上的表现。
-
MathVista
:专注于评估模型在解决需要视觉信息和数学推理相结合的问题上的能力。
- 幻觉评测(Hallucination Evaluation):
-
POPE (Polling-based Object Probing Evaluation)
:一种专门用于检测 VLM 是否会“捏造”图像中不存在的物体(即产生幻觉)的评测方法。它通过提问“图片中是否有某个物体?”并评估模型的回答是否准确,来量化模型的幻觉程度。
- 开源评测工具:
-
VLMEvalKit
:一个功能强大的开源 VLM 评测工具包,集成了上述大部分主流评测基准,支持超过 80 个 VLM 的一键式评测,极大地简化了模型评估的流程。
通过在这些标准化的基准上进行测试,研究人员和开发者可以客观地比较不同 VLM 的优劣,推动技术的持续进步。
七、VLM 目前还有哪些挑战
尽管 VLM 已经取得了令人瞩目的成就,但它仍然面临着一系列严峻的挑战,这些挑战是未来研究和发展的重要方向。
- 视觉幻觉(Visual Hallucination):
-
问题
:这是 VLM 最突出的问题之一。模型有时会“看到”图像中并不存在的东西,或者错误地描述物体的属性和关系。例如,将一只白色的狗描述成金色,或者声称图片中有一个实际上不存在的物体。
-
原因
:幻觉可能源于模型训练数据中的偏见、模型内部的推理错误,或是模型为了生成更流畅、更“合理”的回答而进行的“过度推断”。
- 细粒度理解与空间关系:
-
问题
:VLM 在理解物体的精细细节(如微小的文字、复杂的纹理)和准确描述物体之间的空间位置关系(如“在…左边”、“在…下面”)方面仍然存在困难。
-
挑战
:这要求模型不仅能识别物体,还能精确地定位它们并理解它们之间的拓扑结构,这对视觉编码和多模态融合提出了更高的要求。
- 视频理解的挑战:
-
问题
:将 VLM 从静态图像扩展到动态视频是一个巨大的飞跃。视频不仅包含空间信息,还包含时间维度上的变化、动作和因果关系。
-
挑战
:处理视频需要巨大的计算资源和显存,如何高效地编码长视频序列,并理解其中的时序动态,是一个亟待解决的难题。
- 数据偏见与安全:
-
问题
:VLM 的能力高度依赖于其训练数据。如果训练数据中存在社会偏见(如性别、种族歧视),模型很可能会学习并放大这些偏见。此外,恶意用户也可能利用 VLM 生成有害或不当内容。
-
挑战
:如何构建更加均衡、无偏见的数据集,并为模型建立强大的“安全护栏”,是确保 VLM 技术能够负责任地发展的关键。
- 评测体系的完善:
-
问题
:现有的评测基准虽然在某些方面很有效,但往往难以全面、公正地评估一个模型的综合能力,尤其是在评估其创造力、常识推理和安全性等方面。
-
挑战
:开发更接近人类价值观、能够全面衡量模型真实能力的评测方法,对于指导 VLM 的发展至关重要。
克服这些挑战需要算法、数据和计算能力的协同创新,也是推动 VLM 从“可用”走向“可靠”和“可信”的必经之路。
八、结论
视觉语言模型(VLM)作为连接视觉与语言的桥梁,正以前所未有的方式推动着人工智能的发展。从其结合视觉编码器与大型语言模型的基本原理,到 Prefill 和 Decode 的核心推理逻辑,再到 PagedAttention、Continuous Batching 等一系列精密的优化技术,VLM 的整个技术栈都在快速演进,旨在实现更高效率、更低成本的部署。
与此同时,一个成熟的技术不仅需要强大的性能,更需要科学的评估体系。从 VQA、MMBench 到专门的幻觉评测,标准化的测试方法和基准为我们客观衡量模型能力提供了标尺。然而,视觉幻觉、细粒度理解不足、视频处理的高昂成本以及数据安全等挑战依然存在,这些都是未来研究需要攻克的难关。
VLM 的发展不仅是技术上的突破,更预示着人机交互范式的深刻变革。一个既能“看懂世界”又能“理解语言”的 AI,将在智能助理、内容创作、科学研究等领域释放巨大潜力。未来,随着技术的不断成熟和挑战的逐一克服,我们有理由相信,VLM 将成为构建更通用、更智能 AI 系统不可或缺的基石。
九、如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
01.大模型风口已至:月薪30K+的AI岗正在批量诞生
2025年大模型应用呈现爆发式增长,根据工信部最新数据:
国内大模型相关岗位缺口达47万
初级工程师平均薪资28K(数据来源:BOSS直聘报告)
70%企业存在"能用模型不会调优"的痛点
真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!
02.如何学习大模型 AI ?
🔥AI取代的不是人类,而是不会用AI的人!麦肯锡最新报告显示:掌握AI工具的从业者生产效率提升47%,薪资溢价达34%!🚀
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工
📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
更多推荐
所有评论(0)