在人工智能快速发展的今天,越来越多企业开始部署自己的大语言模型。然而面对动辄数十亿参数的大模型,如何高效稳定地运行它们成为技术团队面临的共同挑战。今天我们就来深入解析两款主流的大模型推理引擎——vLLM和Ollama,帮助您做出正确的技术选型。

什么是vLLM?它为何如此高效?

vLLM(Vectorized Large Language Model)是由加州大学伯克利分校团队开发的高性能大语言模型推理引擎,专门用于提升大模型推理的效率和速度

vLLM的核心突破在于其创新的PagedAttention技术,这项技术巧妙地借鉴了操作系统的虚拟内存分页机制
传统推理框架在处理大模型时,需要为每个请求分配一块连续的显存空间来存储注意力机制的键值对(KV Cache)。这就像停车场要求每辆车必须停靠在连续的车位中,即使只剩零散车位也无法使用,导致显存利用率通常只有60%左右

而vLLM的PagedAttention技术将KV Cache划分为固定大小的"块",这些块可以非连续地存储在显存中,并通过页表管理它们的映射关系。这种方法就像让车辆可以分散停放在停车场的任何空位,极大提升了显存利用率,可达到95%以上
除了PagedAttention外,vLLM还有两大核心技术:

连续批处理(Continuous Batching):传统批处理需要等待一批请求全部完成后才能处理下一批,而vLLM允许新请求随时加入处理队列,确保GPU持续工作,显著提高吞吐量

前缀共享(Prefix Sharing):当多个请求有相同提示前缀时,vLLM可以共享这部分计算的KV Cache,避免重复计算

这些技术使得vLLM在相同硬件上能同时服务5-10倍的请求量,成为企业级高并发场景的理想选择

2.vLLM与Ollama

虽然vLLM和Ollama都是大模型推理框架,但它们在设计理念和适用场景上有着显著差异。

2.1定位与核心优势

Ollama是一个轻量级的本地推理平台,主打简单易用和快速部署。它基于Go语言实现,将模型权重、依赖库和运行环境整合为统一容器,用户只需一条命令即可启动模型服务。Ollama特别适合个人开发者、教育演示和本地测试场景

vLLM则专注于高性能推理和服务端扩展,面向需要处理高并发请求的生产环境。它通过先进的内存管理和调度算法,最大化GPU利用率,适合企业级的大规模部署

2.2性能表现对比

从性能数据来看,两个框架有明显差异。以DeepSeek-R1-Distill-Qwen-32B模型为例:

显存占用:Ollama(4-bit量化)为19-24GB,而vLLM(FP16)为64-96GB

推理速度:Ollama为5-15 tokens/秒,vLLM可达30-60 tokens/秒

硬件需求:Ollama可在高端消费级GPU(≥24GB)上运行,vLLM需要多卡专业级GPU

特性 Ollama vLLM
核心优势 易用性、快速启动 高性能、高并发
显存管理 动态分块加载 PagedAttention分页管理
批处理 基础批处理 连续动态批处理
硬件需求 消费级GPU即可 需要专业级GPU
部署复杂度 简单,一条命令 相对复杂,需要调优

简单来说,选择标准很清晰:个人开发测试用Ollama,企业生产部署用vLLM

3.vLLM的软硬件要求与部署实践

3.1硬件要求

vLLM对硬件有较高要求,推荐使用专业级GPU显存需求:至少能容纳模型参数和KV Cache,例如70B模型需要140-210GB显存,支持张量并行:通过多GPU并行计算加速推理

本次实验采用一张魔改的 2080显卡,22G现存

3.2软件环境

操作系统:Linux(Ubuntu 20.04+或Rocky Linux 9+),驱动要求:NVIDIA驱动版本535+

本次实验环境采用 Rocky Linux 10 版本

3.3操作系统基础安装

# 更换镜像源为阿里云镜像源sed -e 's|^mirrorlist=|#mirrorlist=|g' \    -e 's|^#baseurl=http://dl.rockylinux.org/$contentdir|baseurl=https://mirrors.aliyun.com/rockylinux|g' \    -i.bak \    /etc/yum.repos.d/[Rr]ocky*.repo# 安装EPEL 仓库dnf install -y epel-release # 和yum是一样的dnf clean alldnf makecache# 更新系统软件(非必要)yum -y update# 禁用 SELinuxsetenforce 0sed -i "s/SELINUX=enforcing/SELINUX=disabled/g" /etc/selinux/config# 获取 SELinux 状态getenforce # 关闭防火墙(生产环境慎重)systemctl stop firewalldsystemctl disable firewalld# 设置时区timedatectl set-timezone Asia/Shanghai# 配置时间同步服务systemctl status chronyd# 查看时间是否同步 V 大写chronyc sources -VMS Name/IP address         Stratum Poll Reach LastRx Last sample               ===============================================================================^+ ntp8.flashdance.cx            2   7   377   104  +2245us[+2245us] +/-  104ms^* 211.68.71.26                  3   7   377   105  -8679us[-9888us] +/-  124ms^- mail.moe.cat                  2   8    61    94    -14ms[  -14ms] +/-  101ms^+ ntp1.flashdance.cx            2   7   377    40   +215us[ +215us] +/-  102ms# 安装常用插件yum install -y vim wget telnet net-tools lrzsz unzip gcc numactl  bind-utils tar tar perl pciutils

显卡检查时会用到 lspci命令,该命令在 pciutils包中

3.4 显卡相关

3.4.1 确认显卡型号

lspci | grep -i nvidia01:00.0 VGA compatible controller: NVIDIA Corporation TU102 [GeForce RTX 2080 Ti Rev. A] (rev a1)01:00.1 Audio device: NVIDIA Corporation TU102 High Definition Audio Controller (rev a1)01:00.2 USB controller: NVIDIA Corporation TU102 USB 3.1 Host Controller (rev a1)01:00.3 Serial bus controller: NVIDIA Corporation TU102 USB Type-C UCSI Controller (rev a1)# 确认你运行的内核版本,然后安装对应的开发包:# 查看当前运行的内核版本uname -r# 安装对应版本的内核开发包sudo dnf install kernel-devel-$(uname -r) kernel-headers-$(uname -r)

确认内核版本以及安装对应版本内核开发包很重要,要不然驱动无法安装

3.4.2 检查是否存在开源驱动 nouveau

lsmod | grep nouveau

有输出说明存在。 开源驱动会与NVIDA 驱动冲突。我的是有输出的

如果存在,则需要关闭 nouveau 驱动

echo "blacklist nouveau" | sudo tee /etc/modprobe.d/blacklist-nouveau.confecho "options nouveau modeset=0" | sudo tee -a /etc/modprobe.d/blacklist-nouveau.confsudo dracut --force# 重启sudo reboot# 重启后确认,如果没有输出则表示已经关闭了lsmod | grep nouveau

3.4.3 下载驱动

官网:https://www.nvidia.com/en-us/drivers/

选择一个版本下载

将下载的文件存放到 /usr/local/src目录备用

3.4.4 执行安装

cd /usr/local/src# 添加可执行权限 chmod +x NVIDIA-Linux-x86_64-580.105.08.run# 执行安装 sudo ./NVIDIA-Linux-x86_64-580.105.08.run

安装的时候,会让你选择许可证,我们直接选择 **NVIDIA Proprietary**即可

选项 许可证 特点 推荐选择
NVIDIA Proprietary 专有许可证 • 传统的NVIDIA专有驱动 • 经过长期测试,稳定性高 • 与各种NVIDIA功能完全兼容 大多数用户
MIT/GPL 开源许可证 • 较新的开源内核模块 • 更好的内核兼容性 • 遵循开源协议 特定场景用户

如果操作系统安装的是字符界面,则会出现一个警告:

WARNING: nvidia-installer was forced to guess the X library path ‘/usr/lib64’ and X module path ‘/usr/lib64/xorg/modules’;

这个警告信息表明NVIDIA安装程序无法自动检测到X Window系统的开发文件位置,解决这个警告你需要安装X.Org的开发包和pkg-config工具,

这个警告不会影响CUDA计算功能,只会影响图形显示,如果你只在字符界面使用Rocky Linux进行计算任务,可以暂时忽略这个警告

3.4.5 验证驱动是否安装成功

#  若输出显示显卡信息、驱动版本,则安装成功nvidia-smi
```![](http://cdn.zhipoai.cn/30673221.jpg)

3.5.安装CUDA
----------

**CUDA** 是 **Compute Unified Device Architecture** 的缩写,是NVIDIA推出的**并行计算平台和编程模型**。

\*\*本质:\*\*让GPU不仅能处理图形,还能进行通用计算的平台

\*\*作用:\*\*允许开发者使用C/C++等语言直接在GPU上编写程序

\*\*应用领域:\*\*AI/深度学习、科学计算、数据分析、图形渲染等

> 前提条件,需要先安装 NVIDIA 驱动

```plaintext
nvidia-smi  # 有输出,则确认驱动正常工作

3.5.1 下载CUDA Toolkit并安装

RTX 2080 Ti 的最优 CUDA 版本为 11.7 或 11.8,我们选择 11.8 版本下载,下载地址:https://developer.nvidia.com/cuda-toolkit-archive ,找到对应的版本,选择合适的环境下载。下载后,文件存放到 /usr/local/src

cd /usr/local/srcwget https://developer.download.nvidia.com/compute/cuda/11.8.0/local_installers/cuda_11.8.0_520.61.05_linux.runsudo sh cuda_11.8.0_520.61.05_linux.run

安装的时候,会出现错误:unsupported compiler version: 14.2.1. Use --override to override this check. 此时使用下面命令跳过检查。 原因是当前系统版本的gcc版本过高 ,cuda_11.8.0 不识别这个gcc版本。生产环境可以降低 gcc版本,比如gcc 10 版本。因为现在是测试,直接跳过检查

sudo sh cuda_11.8.0_520.61.05_linux.run --override

因为驱动已经安装了,所以这里需要将 “Driver” 选项去掉

安装完毕后,Toolkit 被安装在了 /usr/local/cuda-11.8, 同时有个链接文件 /usr/local/cuda指向了这个目录

3.5.2 配置环境变量

# 编辑bash配置文件vim ~/.bashrc# 添加以下内容(版本号根据实际安装调整)export PATH=/usr/local/cuda/bin${PATH:+:${PATH}}export LD_LIBRARY_PATH=/usr/local/cuda/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}export CUDA_HOME=/usr/local/cuda# 使配置生效source ~/.bashrc

3.5.3 验证安装

# 检查CUDA编译器nvcc --versionnvcc: NVIDIA (R) Cuda compiler driverCopyright (c) 2005-2022 NVIDIA CorporationBuilt on Wed_Sep_21_10:33:58_PDT_2022Cuda compilation tools, release 11.8, V11.8.89Build cuda_11.8.r11.8/compiler.31833905_0# 检查CUDA工具包版本nvidia-smi  # 查看右上角的CUDA Version
```![](http://cdn.zhipoai.cn/20364c34.jpg)

> nvidia-smi 显示的CUDA版本是驱动程序支持的最高 CUDA版本,不是实际安装的CUDA版本,使用 `nvcc --version`显示的才是实际安装的版本。

3.6 安装Conda
-----------

Conda 是一个开源的包管理和环境管理系统,最初由 Anaconda 公司开发,主要用于 Python 及其他语言(如 R、Ruby、Lua、Perl、Haskell、C/C++)的包管理和环境管理。它可以安装、更新、卸载软件包,并创建隔离的虚拟环境,使得不同项目之间的依赖不会相互干扰。Conda与pip的区别:

![](http://cdn.zhipoai.cn/a779e948.jpg)

```plaintext
cd /usr/local/src # 下载安装脚本wget https://repo.anaconda.com/miniconda/Miniconda3-latest-Linux-x86_64.sh # 执行安装 sh Miniconda3-latest-Linux-x86_64.sh# 手动激活 base环境eval "$(/root/miniconda3/bin/conda shell.bash hook)"# 接收许可conda tos accept --override-channels --channel https://repo.anaconda.com/pkgs/mainconda tos accept --override-channels --channel https://repo.anaconda.com/pkgs/r# 查看源conda config --show-sources==> /root/miniconda3/.condarc <==channels:  - defaultsconda config --set show_channel_urls yesconda config --show channels # 关闭自动激活base环境conda config --set auto_activate_base false

3.7 安装vLLM GPU版本

# 创建vllm虚拟环境conda create -n vllm_env python=3.11 -y# 激活vllm虚拟环境conda activate vllm_env# 查看已创建的所有Conda环境conda env list# 安装vllm 包pip install vllm# 检查vLLM命令行工具是否可用vllm --help# 在Python交互环境中尝试导入vLLM的核心模块python -c "from vllm import LLM; print('vLLM导入成功!')"

3.8 模型下载

这里先试用国内的 魔搭ModelScope社区 提供的SDK 来下载模型

# 安装ModelScope SDKpip install modelscope# 创建模型存放目录mkdir -p /home/models/modelscope/Qwen/Qwen3-0.6B# 下载模型modelscope download --model Qwen/Qwen3-0.6B --local_dir /home/models/modelscope/Qwen/Qwen3-0.6B

3.9 加载本地模型

# 加载。完全启动过后,会打开 8000 端口对外提供服务vllm serve /home/models/modelscope/Qwen/Qwen3-0.6B

GET http://192.168.6.133:8000/v1/models 此时会显示模型信息

单独开启一个窗口,执行命令:

curl http://localhost:8000/v1/completions -H "Content-Type: application/json" -d '{"prompt": "请介绍一下你自己"}'

有相应则加载成功

注意:控制台上按 Ctrl +C服务将会停止,回到命令行

想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年 AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享

👇👇扫码免费领取全部内容👇👇

一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势

想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI

1. 100+本大模型方向电子书

在这里插入图片描述

2. 26 份行业研究报告:覆盖多领域实践与趋势

报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:

  • 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
  • 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
  • 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
  • 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。

3. 600+套技术大会 PPT:听行业大咖讲实战

PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:

在这里插入图片描述

  • 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
  • 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
  • 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
  • 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。

二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走

想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!

1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位

面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析

2. 102 道 AI 大模型真题:直击大模型核心考点

针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:

3. 97 道 LLMs 真题:聚焦大型语言模型高频问题

专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:


三、路线必明: AI 大模型学习路线图,1 张图理清核心内容

刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!

在这里插入图片描述

路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。

img

L1阶段:启航篇丨极速破界AI新时代

L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

img

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

img

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

img

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

img

L5阶段:专题集丨特训篇 【录播课】

img
四、资料领取:全套内容免费抱走,学 AI 不用再找第二份

不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:

👇👇扫码免费领取全部内容👇👇

2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐