近年来,大型语言模型(LLMs)及其多模态变体(MLLMs)已能处理图像、文本等多种输入。然而,长文本输入带来的高计算成本始终是部署中的关键瓶颈——Transformer的自注意力机制复杂度随输入长度平方级增长,导致处理长文档或对话时效率低下。尽管上下文长度不断扩展,但令牌数量的激增仍制约着模型的吞吐量和实际应用成本。

  • 论文:Text or Pixels? It Takes Half: On the Token Efficiency of Visual Text Inputs in Multimodal LLMs
  • 链接:https://arxiv.org/pdf/2510.18279

一个有趣的问题随之浮现:能否通过将文本转换为图像来压缩输入,减少令牌使用,同时保持模型性能? 本论文首次系统性地探索了“文本即图像”这一输入压缩策略。通过将长文本渲染为单张图像,并直接输入多模态模型,作者发现解码器所需的令牌数量可减少近一半,且任务性能未受显著影响。这一发现不仅为输入压缩提供了新思路,也揭示了多模态模型在高效推理中的潜力。

一、研究动机:为何需要文本输入压缩?

长文本处理是LLMs应用中的常见场景,例如文档分析、多轮对话或复杂推理任务。传统方法通过令牌修剪、摘要或软提示等技术压缩输入,但这些方法往往需要额外训练或引入偏差。另一方面,多模态模型(如GPT-4V、Gemini)天然具备从图像中读取文本的能力,其视觉编码器能将图像转换为固定长度的视觉令牌序列,且数量远少于原始文本令牌。

论文指出,现有研究虽已尝试“文本即图像”输入,但多关注模型能力而非效率。本文的核心动机在于:利用多模态模型的视觉编码器作为隐式压缩层,在不微调模型的前提下,显著降低解码器的令牌负担。这种方法的优势在于:

  • 无监督性:无需额外训练或标注数据
  • 通用性:适用于任何支持图像输入的多模态模型
  • 高效率:视觉令牌数量固定,与文本长度无关

二、方法概述:文本转图像的压缩管道

论文提出一个简单的文本转图像流程,将长上下文渲染为图像,并与短文本查询拼接后输入多模态模型。具体步骤如下:

  1. 文本渲染:使用LaTeX排版引擎将文本转换为高质量图像,保留原始布局与换行。
  2. 视觉编码:通过预训练的视觉编码器(如CLIP)将图像映射为固定长度的视觉令牌序列。
  3. 投影与输入:视觉令牌通过线性层投影到语言模型的空间,与文本查询拼接为最终输入。

整个过程如下图所示:

该图直观展示了如何将90个令牌的文本压缩为50个视觉令牌,节省近一半输入长度。

三、方法:问题形式化与评估协议

问题形式化

  • 文本基线:将上下文 (长度 )与查询 拼接,输入长度为 。
  • 图像输入:将 渲染为图像 ,经视觉编码器生成 个视觉令牌,输入长度为 。

压缩比定义

压缩比 定义为:

该公式量化了令牌节省程度, 表示压缩有效。

评估协议

对每个样本分别运行文本基线和图像输入模式,比较:

  • 准确性:任务特定指标(如检索准确率、ROUGE分数)
  • 令牌使用量: 与
  • 延迟:端到端推理时间

四、实验设置与基准任务

论文在两个典型长上下文任务上验证方法:

  1. RULER S-NIAH:长上下文检索任务,模型需从干扰段落中提取目标数字。
  2. CNN/DailyMail:文档摘要任务,评估生成质量。

使用的模型包括:

  • GPT-4.1-mini(API调用)
  • Qwen2.5-VL-72B-Instruct(开源模型)

对比基线包括:

  • Select-Context:基于自信息的令牌修剪
  • LLMLingua-2:基于Transformer的令牌选择模型

五、实验结果与分析

长上下文检索:准确性与令牌节省的平衡

在RULER任务中,文本转图像输入在保持高准确性的同时,显著减少了令牌使用。例如:

  • GPT-4.1-mini在 视觉令牌时,可容忍 文本令牌,压缩比 。
  • Qwen2.5-VL-72B在 时,容忍 ,压缩比 。

该图展示了不同视觉令牌预算下,模型准确性随文本长度增加的变化。当文本令牌数量超过容忍阈值 (m^*) 时,性能急剧下降。

表中数据显示,图像输入将解码器令牌减少38%-58%,且准确性未显著降低。

文本令牌容忍度与视觉令牌的关系

图中显示,文本令牌容忍度 与视觉令牌数量 呈线性正相关,压缩比稳定在2左右。这表明视觉预算与文本压缩容量之间存在可预测的权衡。

文档摘要:视觉输入优于专用修剪方法

在CNN/DailyMail任务中,文本转图像方法在保留仅40%令牌的情况下,生成质量优于两种令牌修剪基线:

  • BERTScore和ROUGE指标均接近文本基线
  • 在相同压缩率下,视觉输入更全面地保留原文信息

性能对比表明,文本转图像在令牌减少62%-67%时,仍保持较高的摘要质量。

延迟分析

  • GPT-4.1-mini因API开销,图像输入延迟略高
  • Qwen2.5-VL-72B因序列缩短,推理速度提升25%-45%

结论

本论文通过实证研究表明,将文本输入转换为图像是一种高效、实用的输入压缩方法。在多模态大语言模型中,视觉文本输入可将解码器令牌数量减少近一半,且在长上下文检索与文档摘要任务中保持性能无损。该方法无需模型调整,兼容现有系统,为提升LLM推理效率开辟了新路径。未来,通过结合其他压缩技术与多模态融合,有望进一步突破长上下文处理的瓶颈。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐