大模型推理部署框架怎么选?一文对比 vLLM、TensorRT-LLM、Ollama 等主流方案
大模型推理部署框架怎么选?一文对比 vLLM、TensorRT-LLM、Ollama 等主流方案
随着大语言模型(LLM)从实验室走向产业应用,推理部署框架成为决定模型落地效率的“关键桥梁”。这类框架不仅需要解决大模型高显存占用、高计算复杂度的技术痛点,还需适配不同场景下的性能需求(如低延迟、高吞吐)与硬件环境(如云端GPU集群、边缘设备、国产芯片)。本文将系统拆解当前主流的推理部署框架,包括vLLM、SGLang、TensorRT-LLM、Ollama、XInference等,从技术架构、核心创新、性能表现、适用场景四个维度展开分析,并新增框架选型方法论与实战部署建议,为不同规模的团队提供清晰的决策参考。
一、vLLM:PyTorch生态下的高并发推理标杆
vLLM(Vectorized Large Language Model Serving System)由加州大学伯克利分校团队研发,是开源社区中首个将“操作系统内存管理思想”引入LLM推理的框架,核心目标是解决高并发场景下的显存浪费与吞吐量瓶颈。凭借PagedAttention技术,vLLM重新定义了大模型推理的显存利用效率,成为企业级在线服务的主流选择之一。
项目地址:https://github.com/vllm-project/vllm.git
1. 核心技术:用“内存分页”重构推理效率
vLLM基于PyTorch构建,但通过底层技术创新突破了原生框架的性能限制,核心亮点集中在以下三点:
- PagedAttention(分页注意力机制):借鉴操作系统“虚拟内存分页”思路,将大模型推理中最占用显存的KV Cache(键值缓存)切分为固定大小的“内存页”(Page)。传统框架需为每个请求分配连续显存块,易导致碎片化和预留浪费;而vLLM通过动态页分配与复用,使显存利用率从60%提升至95%以上,支持并发请求量提升3-5倍。例如,在Llama3-70B模型推理中,同等GPU资源下vLLM可同时处理的请求数是传统框架的4倍。
- Continuous Batching(连续批处理):摒弃传统“静态凑批”模式(需等待足够请求数再启动计算),支持新请求实时加入处理队列,让GPU始终处于高负载状态。在Llama3.1-170B-FP8单H100测试中,vLLM的TTFT(首字输出时间)仅123ms,优于TensorRT-LLM(194ms)和SGLang(340ms),兼顾高吞吐与低延迟。
- 多维度性能优化:支持张量并行与流水线并行,通过NCCL/MPI实现跨卡高效通信;内置GPTQ、AWQ等量化技术,可将模型体积压缩至原大小的1/4-1/2,同时兼容Llama、GPT-2、Falcon等主流模型架构,降低企业迁移成本。
2. 适用场景与优劣势分析
核心适用场景:企业级高并发在线服务,如智能客服、金融实时问答、电商智能推荐等对“吞吐量+低延迟”双高要求的场景。
优势 | 局限 |
---|---|
1. 显存利用率行业领先(95%+),硬件成本降低30%以上; 2. 支持多机多卡横向扩展,轻松应对万级并发; 3. 提供OpenAI兼容API,可直接替换商业模型服务; 4. 社区活跃,迭代速度快(平均每月更新2-3个功能版本) |
1. 依赖NVIDIA高端GPU(A100/H100),低端卡性能优势不明显; 2. 二次开发需深入理解PyTorch底层机制,门槛较高; 3. 分布式调度在超100卡集群中存在性能损耗 |
二、SGLang:Radix树驱动的高吞吐推理引擎
SGLang同样源自伯克利团队,与vLLM专注“低延迟”不同,其核心创新在于通过“结构化缓存”提升多轮对话与批量任务的吞吐量,尤其在长序列、多轮交互场景中表现突出,同时简化了开发者的使用流程。
项目地址:https://github.com/sgl-project/sglang
1. 核心技术:用“树形缓存”优化多轮交互
SGLang的技术突破集中在缓存管理与输出约束,解决了传统框架在多轮对话中“缓存重复计算”的痛点:
- RadixAttention(基数树注意力机制):通过Radix树(前缀树)结构管理KV Cache,将多轮对话中重复的“历史上下文”作为公共前缀缓存,新请求仅需计算增量内容。例如,用户连续询问“天气”相关问题时,SGLang会复用“地理位置、时间”等公共前缀,避免重复计算,使Llama-7B模型在多轮对话中的吞吐量比vLLM提升5倍。同时,结合LRU(最近最少使用)策略与引用计数器,实现缓存的高效淘汰与复用。
- 结构化输出约束:支持通过正则表达式定义输出格式(如JSON、XML、SQL),模型可直接生成符合要求的结构化数据,省去传统框架需额外进行“格式校验+后处理”的步骤。例如,调用支付API时,可直接约束模型输出
{"order_id":"xxx","amount":xxx}
格式,开发效率提升40%以上。 - 轻量模块化设计:采用纯Python实现调度器,代码量仅为vLLM的1/3,同时支持跨GPU缓存共享,多卡部署时可减少30%的显存冗余。
2. 适用场景与优劣势分析
核心适用场景:多轮对话系统(如智能助手、客服机器人)、批量数据处理(如文档结构化解析)、API调用密集型应用(如工具链集成)。
优势 | 局限 |
---|---|
1. 多轮对话吞吐量行业领先,长序列任务性能优势显著; 2. 结构化输出减少后处理成本,开发效率高; 3. 纯Python代码,易上手且便于二次开发; 4. 支持低精度量化(INT4/FP8),适配中端GPU(如A10) |
1. 多模态模型(文生图、语音识别)支持不足; 2. 对Mistral v0.3等较新模型的优化尚未完善; 3. 超大规模集群(>50卡)部署时,Python调度器存在性能瓶颈 |
三、TensorRT-LLM:NVIDIA生态的低延迟推理王者
TensorRT-LLM是NVIDIA推出的闭源优化框架,专为自家GPU(如Hopper架构的H100、Ampere架构的A100)深度定制,通过全链路编译优化将GPU算力发挥到极致,是金融高频交易、实时语音翻译等“纳秒级延迟”场景的首选。
项目地址:https://github.com/NVIDIA/TensorRT-LLM
1. 核心技术:硬件级优化实现“极致延迟”
TensorRT-LLM通过底层编译与硬件特性深度结合,构建了从模型到GPU的“零损耗”推理链路:
- 全链路编译优化:将模型从PyTorch/TensorFlow格式转换为TensorRT引擎时,会进行算子融合(如将“矩阵乘法+激活函数”合并为单个CUDA内核)、层间优化(消除冗余计算节点)、内存布局调整(适配GPU存储架构),使推理速度提升2-4倍。例如,GPT-4o-8B模型经编译后,单卡推理速度可达原生PyTorch的3.2倍。
- 高精度量化与混合精度计算:支持FP8、FP4、INT4等多精度量化,其中FP8量化可在保证模型精度(性能损失<1%)的前提下,将显存占用降低40%,推理速度提升1.8倍;同时支持“FP8计算+INT4 KV Cache”的混合精度模式,进一步平衡性能与精度。
- GPU架构深度适配:针对H100的Tensor Core(支持FP8计算)、A100的MIG(多实例GPU)等硬件特性定制内核,例如利用H100的DPX指令集加速注意力计算,使Llama3-70B模型的TTFT降至80ms以内,是目前低延迟场景的“性能天花板”。
- 灵活并行策略:支持张量并行(拆分模型层内参数)、流水线并行(拆分模型层间流程)、张量-流水线混合并行,适配从单卡到千卡的不同规模部署。
2. 适用场景与优劣势分析
核心适用场景:金融高频交易(延迟要求<100ms)、实时语音交互(如会议翻译)、自动驾驶决策辅助等对“极致低延迟”敏感的核心业务。
优势 | 局限 |
---|---|
1. 单卡推理延迟行业最低,H100上Llama3-170B TTFT<100ms; 2. 与NVIDIA生态无缝集成(如Kubernetes+GPU Operator); 3. 提供企业级技术支持,稳定性与安全性有保障; 4. 支持动态批处理与流式输出,适配实时服务场景 |
1. 仅限NVIDIA GPU,无法运行于AMD、昇腾等非CUDA硬件; 2. 模型编译过程耗时(大模型需数小时),冷启动延迟高; 3. 闭源框架,定制化开发受限; 4. 硬件成本高(H100单卡价格超10万元) |
四、Ollama:轻量级本地推理“入门神器”
Ollama是AI社区推出的轻量化本地部署工具,核心目标是“让非专业开发者也能一键运行大模型”。通过封装底层依赖与简化操作流程,Ollama将本地部署门槛降至“一条命令行”,成为个人学习、小团队原型验证的首选工具。
项目地址:https://github.com/ollama/ollama
1. 核心技术:用“容器化封装”降低部署门槛
Ollama的技术创新集中在“易用性”与“跨平台适配”,而非极致性能:
- 全链路容器化封装:将模型权重(如Llama3-8B)、推理引擎(llama.cpp)、依赖库(如CUDA runtime、OpenBLAS)打包为统一容器,用户无需配置Python环境、安装CUDA驱动,仅需执行
ollama run llama3
即可启动模型,部署时间从“数小时”缩短至“5分钟”。 - llama.cpp深度集成:底层采用llama.cpp(C/C++实现的轻量级推理引擎),支持CPU推理(通过SIMD指令加速)、GPU推理(适配NVIDIA/AMD/Apple Metal),同时支持1.5位、2位、4位等极低精度量化,使Llama3-8B可在8GB内存的笔记本(如MacBook Pro M2)上流畅运行。
- 跨平台兼容:全面支持macOS(适配M系列芯片)、Windows(支持WSL2)、Linux(支持ARM/x86架构),甚至可在树莓派4(4GB内存)上运行量化后的Phi-2模型(2.7B参数)。
- 本地化隐私保障:支持完全离线运行,模型推理过程不依赖外部网络,适合处理敏感数据(如企业内部文档分析)。
2. 适用场景与优劣势分析
核心适用场景:个人学习(如LLM原理实践)、小团队原型验证(快速测试模型效果)、本地化隐私计算(如医疗数据分析)、边缘设备轻量部署(如工业传感器数据分析)。
优势 | 局限 |
---|---|
1. 部署极致简单,一条命令启动模型; 2. 低硬件门槛,8GB内存即可运行7B级模型; 3. 跨平台支持完善,适配PC、边缘设备; 4. 社区提供丰富模型库(Llama3、Mistral、Qwen等) |
1. 并发能力弱,单实例仅支持1-2路并发; 2. 性能优化不足,推理速度比vLLM慢3-5倍; 3. 不支持分布式部署,无法扩展至大规模服务; 4. 多模态与插件生态尚不完善 |
五、XInference:分布式推理的“企业级解决方案”
XInference(原Xorbits Inference)是一款开源分布式推理框架,专注于解决“大规模模型跨节点部署”与“多模态任务集成”问题,通过分离式架构与自主研发的调度引擎,平衡了分布式扩展性与资源利用率。
项目地址:https://github.com/xorbitsai/inference
1. 核心技术:分离式架构提升分布式效率
XInference的核心创新在于“计算与调度分离”,适配企业级大规模部署:
- 三层架构设计:
- API层:基于FastAPI提供RESTful接口与OpenAI兼容协议,支持多模型并行服务(如同时部署Llama3和Stable Diffusion);
- Core Service层:基于自主研发的Xoscar框架实现分布式调度,支持Kubernetes集群部署,可动态扩缩容;
- Actor层:以ModelActor为基本单元,每个Actor负责加载一个模型分片,支持跨节点通信与负载均衡。
- 分离式推理优化:将模型推理拆分为“Prefill(前缀计算)”和“Decode(生成计算)”两个阶段,分别分配到不同GPU节点:Prefill阶段需要大算力(处理长输入),分配至高性能GPU(如A100);Decode阶段算力需求低,分配至中端GPU(如A10),使整体资源利用率提升25%以上。
- 多模态与算子优化:支持文本、图像、语音等多模态模型协同推理,同时在Actor层集成FlashAttention、DeepGEMM等高性能算子,适配NVIDIA GPU与国产海光DCU。
2. 适用场景与优劣势分析
核心适用场景:企业级多模型服务(如同时部署对话模型、文生图模型)、大规模分布式推理(如千亿参数模型跨节点部署)、多模态业务(如智能质检:图像识别+文本报告生成)。
优势 | 局限 |
---|---|
1. 支持多模型并行服务,资源利用率高; 2. 分离式推理优化,降低硬件成本; 3. 兼容Kubernetes生态,便于企业级运维; 4. 支持国产硬件(海光DCU),适配国产化需求 |
1. 分布式调度复杂度高,需专业运维团队; 2. 依赖Xoscar框架,与其他分布式系统(如Ray)集成难度大; 3. 社区生态较年轻,文档与案例不足; 4. 多模态推理性能仍需优化 |
六、LightLLM:轻量高效的“边缘部署优选”
LightLLM是由ModelTC团队研发的轻量级推理框架,以“低显存占用+高吞吐量”为核心卖点,通过精细化内存管理与异步调度,在边缘设备(如工业网关、智能终端)与中端GPU上表现突出。
项目地址:https://github.com/ModelTC/LightLLM
1. 核心技术:轻量化设计平衡性能与资源
LightLLM通过多维度优化,在有限硬件资源下实现高效推理:
- 三进程异步协作:将“token编码(Tokenizer)”“模型推理(Inference)”“结果解码(Detokenizer)”拆分到三个独立进程,通过队列实现异步通信,减少I/O阻塞,使吞吐量提升30%以上。
- TokenAttention内存管理:以“Token”为单位动态分配KV Cache,避免传统“按请求分配”导致的内存浪费,支持INT8 KV Cache量化,使70B模型的显存占用从50GB降至25GB以内。
- 零填充注意力(NoPad-Attention):针对输入序列长度差异大的场景(如同时处理10字与1000字请求),无需对短序列进行“填充补长”,直接按实际长度计算注意力,减少40%的无效计算。
- 边缘设备适配:支持ARM架构(如NVIDIA Jetson AGX Orin)与低精度量化(INT4),使Llama3-8B可在16GB内存的边缘设备上运行,推理速度达50 tokens/s,满足实时交互需求。
2. 适用场景与优劣势分析
核心适用场景:边缘计算(如工业设备故障诊断)、中端GPU集群(如A10/RTX 3090)的高吞吐服务、资源受限环境下的模型部署(如中小企业AI应用)。
优势 | 局限 |
---|---|
1. 显存占用低,70B模型仅需25GB显存; 2. 边缘设备适配性强,支持ARM/x86架构; 3. 轻量化设计,部署包体积仅50MB; 4. Llama2-13B吞吐量达480 tokens/s,性价比高 |
1. 边缘设备性能数据尚未公开,实际表现待验证; 2. 多模态模型支持处于早期阶段; 3. 分布式部署能力不如vLLM/XInference成熟; 4. 社区支持较弱,问题响应速度慢 |
七、国产硬件适配框架:昇腾与LMDeploy
随着国产AI芯片(如华为昇腾、海光DCU)的成熟,针对国产硬件的推理框架成为企业“国产化替代”的关键支撑。其中,昇腾生态的MindSpore Inference与上海AI实验室的LMDeploy是代表性解决方案。
1. 昇腾AI处理器:国产化全栈推理方案
华为昇腾AI芯片(如Ascend 910B、Ascend 310B)基于自研达芬奇架构,配套全栈软件栈(CANN)与推理框架,形成从硬件到应用的完整生态:
- MindSpore Inference:华为自研推理框架,支持“整图下沉”(将模型计算全量交给芯片)、算子融合(如“卷积+BN”合并)、静态图优化,使昇腾910B运行Llama3-70B模型时,吞吐量达300 tokens/s,接近同级别NVIDIA A100的性能。
- CBQ量化技术:华为诺亚方舟实验室研发的“跨块重建后训练量化”方案,仅需0.1%的训练数据,即可将模型压缩至原体积的1/7(如70B→10B),同时保持99%的性能精度,解决国产芯片显存不足的痛点。
- CANN软件栈:提供AscendCL(应用开发接口)与TBE(算子开发接口),支持开发者基于昇腾芯片定制高性能算子,适配多模态、3D视觉等复杂任务。
2. LMDeploy:视觉-语言混合任务的国产优选
LMDeploy(Llama Model Deploy)由上海人工智能实验室研发,专注于大语言模型与视觉语言模型(如LLaVA)的高效部署,深度适配国产硬件:
- 国产GPU优化:针对昇腾910B、海光DCU等国产芯片优化算子,例如基于昇腾CANN实现FlashAttention类似功能,使LLaVA-13B在昇腾910B上的推理速度达80 tokens/s。
- TurboMind引擎:自研4bit推理CUDA内核,支持“INT4计算+FP16权重”混合精度模式,使模型显存占用降低60%,同时兼容国产芯片的低精度计算单元。
- 多模态融合:原生支持视觉-语言模型(如LLaVA、Qwen-VL),通过统一调度器实现“图像编码+文本推理”的端到端部署,适配智能质检、自动驾驶感知等多模态业务。
3. 适用场景
- 政府、国企等对“国产化替代”有强制要求的场景;
- 视觉-语言混合任务(如工业质检、医疗影像分析);
- 需依托国产芯片构建自主可控AI系统的企业。
八、框架选型方法论与实战建议
1. 核心选型维度
选择推理框架需围绕“业务需求-硬件资源-技术门槛”三个核心维度综合评估:
维度 | 关键指标 | 决策建议 |
---|---|---|
业务需求 | 延迟(TTFT)、吞吐量(tokens/s)、并发量、是否多模态、数据隐私要求 | - 低延迟(<100ms):优先TensorRT-LLM; - 高吞吐+多轮对话:优先SGLang; - 分布式大规模部署:优先vLLM/XInference; - 本地化隐私需求:优先Ollama; - 边缘部署:优先LightLLM |
硬件资源 | GPU型号(NVIDIA/国产/无GPU)、显存大小、集群规模 | - NVIDIA高端卡(H100/A100):vLLM/TensorRT-LLM; - NVIDIA中端卡(A10/RTX 3090):SGLang/LightLLM; - 国产芯片(昇腾/海光):昇腾框架/LMDeploy; - 无GPU/边缘设备:Ollama/LightLLM |
技术门槛 | 团队技术栈(PyTorch/CUDA)、运维能力、开发周期 | - 快速验证(1-2周):Ollama; - 企业级开发(有PyTorch团队):vLLM/SGLang; - 国产化部署(有CANN经验):昇腾框架; - 低代码需求:XInference(提供可视化管理界面) |
2. 实战部署建议
- 中小团队快速落地:先用Ollama验证模型效果,再基于vLLM(开源免费)或TensorRT-LLM(性能优先)部署在线服务,配套Redis实现请求缓存,降低GPU负载。
- 企业级大规模部署:采用“vLLM+Kubernetes”架构,通过GPU Operator管理硬件资源,Prometheus+Grafana监控性能指标,同时预留10-20%的GPU资源应对流量峰值。
- 国产化替代迁移:先基于LMDeploy在昇腾芯片上验证模型精度(如LLaMA3-70B性能损失<2%),再通过CANN算子优化提升速度,最后逐步替换现有NVIDIA集群。
写在最后
大模型推理部署框架的选择,本质是“业务需求、硬件资源、技术能力”的平衡艺术。没有绝对“最优”的框架,只有“最适配”的方案:
- 追求极致性能与企业级稳定,首选TensorRT-LLM(闭源)或vLLM(开源);
- 聚焦多轮对话与高吞吐量,SGLang是当前最佳选择;
- 个人学习与快速验证,Ollama可大幅降低门槛;
- 边缘部署与资源受限场景,LightLLM更具性价比;
- 国产化替代需求,昇腾框架+LMDeploy是核心方向。
未来,推理框架将朝着“更高效(硬件算力利用率>90%)、更通用(跨硬件/多模态)、更易用(低代码部署)”的方向发展,而企业需结合自身业务节奏,在“性能优化”与“落地效率”之间找到最佳平衡点。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
为什么要学习大模型?
我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。
大模型入门到实战全套学习大礼包
1、大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
2、大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
3、AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
4、大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
5、大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。
适用人群
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
更多推荐
所有评论(0)