AI大模型RAG15种分块策略进行汇总介绍,零基础小白收藏这一篇就够了!!
在构建检索增强生成 (RAG) 时,针对特定用例和文档类型优化分块至关重要。不同的场景根据文档大小、内容多样性和检索速度有不同的要求。让我们根据这些因素探讨一些优化策略。选择正确的分块策略取决于多个因素,包括文档类型、上下文保留的需求以及检索速度和准确性之间的平衡。无论您是处理学术论文、法律文档还是混合内容文件,选择合适的方法都可以显著提高 RAG 的有效性。通过迭代和优化分块方法,您可以适应不断
1、固定大小分块
固定大小的分块将文档拆分为预定义大小的块,通常按字数、标记数或字符数。
当您需要一种简单明了的方法并且文档结构并不重要时。它在处理较小、不太复杂的文档时效果很好。
优势:
- 易于实施。
- 一致的块大小。
- 快速计算。
弊:
- 可能会断开句子或段落,从而丢失上下文。
- 对于保持含义很重要的文档来说,这并不理想。
2、基于句子分块
此方法根据自然句子边界对文本进行分块。每个块都包含一定数量的句子,保留语义单元。保持连贯的思想是至关重要的,在句子中间拆分会导致失去意义。
优势:
- 保留句子级别的含义。
- 更好的上下文保留。
弊:
- 块大小不均匀,因为句子的长度不同。
- 当句子太长时,可能会超过模型中的标记限制。
import spacynlp = spacy.load("en_core_web_sm") def sentence_chunk(text): doc = nlp(text) return [sent.text for sent in doc.sents] # Applying Sentence-Based Chunkingsentence_chunks = sentence_chunk(sample_text)for chunk in sentence_chunks: print(chunk, '\n---\n')
3、基于段落分块
此策略根据段落边界拆分文本,将每个段落视为一个块。最适合结构化文档,如报告或论文,其中每个段落都包含一个完整的想法或论点。
优势:
- 自然文档分割。
- 在段落中保留较大的上下文。
弊:
- 段落长度不同,导致块大小不均匀。
- 长段落可能仍会超出标记限制。
def paragraph_chunk(text): paragraphs = text.split('\n\n') return paragraphs # Applying Paragraph-Based Chunkingparagraph_chunks = paragraph_chunk(sample_text)for chunk in paragraph_chunks: print(chunk, '\n---\n')
4、基于语义的分块
此方法使用机器学习模型(如 transformers)根据语义含义将文本拆分为块。当保留最高级别的上下文至关重要时,例如在复杂的技术文档中。
优势:
- 具有上下文意义的块。
- 捕获句子之间的语义关系。
弊:
- 需要高级 NLP 模型,这些模型在计算上非常昂贵。
- 实现起来更复杂
def semantic_chunk(text, max_len=200): doc = nlp(text) chunks = [] current_chunk = [] for sent in doc.sents: current_chunk.append(sent.text) if len(' '.join(current_chunk)) > max_len: chunks.append(' '.join(current_chunk)) current_chunk = [] if current_chunk: chunks.append(' '.join(current_chunk)) return chunks # Applying Semantic-Based Chunkingsemantic_chunks = semantic_chunk(sample_text)for chunk in semantic_chunks: print(chunk, '\n---\n')
5、基于多模态的分块
此策略分别处理不同的内容类型(文本、图像、表格)。每种模态都根据其特征独立分块。适用于包含各种内容类型的文档,如 PDF 或具有混合媒体的技术手册。
优势:
- 专为混合媒体文档量身定制。
- 允许对不同模态进行自定义处理。
弊:
- 实施和管理复杂。
- 每种模式需要不同的处理逻辑。
def modality_chunk(text, images=None, tables=None): # This function assumes you have pre-processed text, images, and tables text_chunks = paragraph_chunk(text) return {'text_chunks': text_chunks, 'images': images, 'tables': tables} # Applying Modality-Specific Chunkingmodality_chunks = modality_chunk(sample_text, images=['img1.png'], tables=['table1'])print(modality_chunks)
6、滑动窗口分块
滑动窗口分块会创建重叠的数据块,从而允许每个数据块与下一个数据块共享其部分内容。当您需要确保块之间上下文的连续性时,例如在法律或学术文档中。
优势:
- 跨数据块保留上下文。
- 减少数据块边界处的信息丢失。
弊:
- 可能会通过在多个块中重复内容来引入冗余。
- 需要更多处理。
def sliding_window_chunk(text, chunk_size=100, overlap=20): tokens = text.split() chunks = [] for i in range(0, len(tokens), chunk_size - overlap): chunk = ' '.join(tokens[i:i + chunk_size]) chunks.append(chunk) return chunks # Applying Sliding Window Chunkingsliding_chunks = sliding_window_chunk(sample_text)for chunk in sliding_chunks: print(chunk, '\n---\n')
7、分层分块
分层分块在多个级别划分文档,例如部分、小节和段落。对于高度结构化的文档,如学术论文或法律文本,维护层次结构是必不可少的。
优势:
- 保留文档结构。
- 在多个粒度级别维护上下文。
弊:
- 实现起来更复杂。
- 可能导致块状不均匀。
def hierarchical_chunk(text, section_keywords): sections = [] current_section = [] for line in text.splitlines(): if any(keyword in line for keyword in section_keywords): if current_section: sections.append("\n".join(current_section)) current_section = [line] else: current_section.append(line) if current_section: sections.append("\n".join(current_section)) return sections # Applying Hierarchical Chunkingsection_keywords = ["Introduction", "Overview", "Methods", "Conclusion"]hierarchical_chunks = hierarchical_chunk(sample_text, section_keywords)for chunk in hierarchical_chunks: print(chunk, '\n---\n')
8、内容感知分块
此方法根据内容特征(例如,在段落级别对文本进行分块,将表格作为单独的实体)进行调整。对于内容异构的文档,例如电子书或技术手册,分块必须根据内容类型而变化。
优势:
- 灵活且可适应不同的内容类型。
- 保持多种格式的文档完整性。
弊:
- 需要复杂的动态分块逻辑。
- 对于内容结构多样的文档,难以实现。
def content_aware_chunk(text): chunks = [] current_chunk = [] for line in text.splitlines(): if line.startswith(('##', '###', 'Introduction', 'Conclusion')): if current_chunk: chunks.append('\n'.join(current_chunk)) current_chunk = [line] else: current_chunk.append(line) if current_chunk: chunks.append('\n'.join(current_chunk)) return chunks # Applying Content-Aware Chunkingcontent_chunks = content_aware_chunk(sample_text)for chunk in content_chunks: print(chunk, '\n---\n')
9、表感知分块
此策略通过将文档表提取为独立的块并将其转换为 markdown 或 JSON 等格式以便于处理来专门处理文档表。对于包含表格数据的文档,例如财务报告或技术文档,其中的表格包含重要信息。
优势:
- 保留表结构以进行高效的下游处理。
- 允许独立处理表格数据。
弊:
- 在转换过程中,格式可能会丢失。
- 需要对具有复杂结构的表进行特殊处理。
import pandas as pd def table_aware_chunk(table): return table.to_markdown() # Sample table datatable = pd.DataFrame({ "Name": ["John", "Alice", "Bob"], "Age": [25, 30, 22], "Occupation": ["Engineer", "Doctor", "Artist"]}) # Applying Table-Aware Chunkingtable_markdown = table_aware_chunk(table)print(table_markdown)
10、基于令牌分块
基于标记的分块根据固定数量的标记而不是单词或句子来拆分文本。它使用来自 NLP 模型的分词器。对于对 Token 进行作的模型,例如具有 Token 限制的基于 transformer 的模型(例如 GPT-3 或 GPT-4)。
优势:
- 适用于基于 transformer 的模型。
- 确保遵守令牌限制。
弊:
- 分词可能会拆分句子或破坏上下文。
- 并不总是与自然语言边界保持一致。
from transformers import GPT2Tokenizer tokenizer = GPT2Tokenizer.from_pretrained("gpt2") def token_based_chunk(text, max_tokens=200): tokens = tokenizer(text)["input_ids"] chunks = [tokens[i:i + max_tokens] for i in range(0, len(tokens), max_tokens)] return [tokenizer.decode(chunk) for chunk in chunks] # Applying Token-Based Chunkingtoken_chunks = token_based_chunk(sample_text)for chunk in token_chunks: print(chunk, '\n---\n')
11、基于实体分块
基于实体的分块利用命名实体识别 (NER) 根据识别的实体(如人员、组织或位置)将文本分成多个块。对于特定实体必须作为上下文单元进行维护的文档,例如简历、合同或法律文档。
优势:
- 保持命名实体不变。
- 可以通过关注相关实体来提高检索准确性。
弊:
- 需要经过训练的 NER 模型。
- 实体可能会重叠,从而导致复杂的块边界。
def entity_based_chunk(text): doc = nlp(text) entities = [ent.text for ent in doc.ents] return entities # Applying Entity-Based Chunkingentity_chunks = entity_based_chunk(sample_text)print(entity_chunks)
12、基于主题分块
用于涵盖多个主题的文档,例如新闻文章、研究论文或具有不同主题的报告。
优势:
- 将相关信息分组在一起。
- 有助于根据特定主题进行重点检索。
弊:
- 需要额外的处理 (主题建模)。
- 对于简短的文档或重叠的主题,可能并不精确。
13、基于页面分块
根据页面边界拆分文档,页面边界通常用于 PDF 或格式化文档,其中每个页面都被视为一个块。对于页面边界具有语义重要性的页面文档,如 PDF 或可打印报表。
优势:
- 易于使用 PDF 文档实现。
- 遵守页面边界。
弊:
- 页面可能与自然文本分隔符不对应。
- 页面之间的上下文可能会丢失。
def page_based_chunk(pages): # Split based on pre-processed page list (simulating PDF page text) return pages # Sample pagespages = ["Page 1 content", "Page 2 content", "Page 3 content"] # Applying Page-Based Chunkingpage_chunks = page_based_chunk(pages)for chunk in page_chunks: print(chunk, '\n---\n')
14、基于关键字分块
此方法根据表示主题转移的预定义关键字或短语(例如,“Introduction”、“Conclusion”)对文档进行分块。适合遵循清晰结构的文档,例如科学论文或技术规范。
优势:
- 根据关键字捕获自然的主题分隔符。
- 适用于结构化文档。
弊:
- 需要一组预定义的关键字。
- 不适应非结构化文本。
def keyword_based_chunk(text, keywords): chunks = [] current_chunk = [] for line in text.splitlines(): if any(keyword in line for keyword in keywords): if current_chunk: chunks.append('\n'.join(current_chunk)) current_chunk = [line] else: current_chunk.append(line) if current_chunk: chunks.append('\n'.join(current_chunk)) return chunks # Applying Keyword-Based Chunkingkeywords = ["Introduction", "Overview", "Conclusion", "Methods", "Challenges"]keyword_chunks = keyword_based_chunk(sample_text, keywords)for chunk in keyword_chunks: print(chunk, '\n---\n')
15、混合分块
根据内容类型和文档结构组合了多个分块策略。例如,文本可以按句子分块,而表格和图像是分开处理的。用于包含各种内容类型的复杂文档,如技术报告、业务文档或产品手册。
优势:
- 高度适应各种文档结构。
- 允许对不同的内容类型进行精细控制。
弊:
- 实现起来更复杂。
- 需要自定义逻辑来处理每种内容类型。
defhybrid_chunk(text):
paragraphs = paragraph_chunk(text)
hybrid_chunks = []
forparagraphin paragraphs:
hybrid_chunks += sentence_chunk(paragraph)
return hybrid_chunks
# Applying Hybrid Chunkinghybrid_chunks = hybrid_chunk(sample_text)forchunkin hybrid_chunks: print(chunk, '\n---\n')
在构建检索增强生成 (RAG) 时,针对特定用例和文档类型优化分块至关重要。不同的场景根据文档大小、内容多样性和检索速度有不同的要求。让我们根据这些因素探讨一些优化策略。
选择正确的分块策略取决于多个因素,包括文档类型、上下文保留的需求以及检索速度和准确性之间的平衡。无论您是处理学术论文、法律文档还是混合内容文件,选择合适的方法都可以显著提高 RAG 的有效性。通过迭代和优化分块方法,您可以适应不断变化的文档类型和用户需求,确保您的检索系统保持稳健和高效。
最后
为什么要学AI大模型
当下,⼈⼯智能市场迎来了爆发期,并逐渐进⼊以⼈⼯通⽤智能(AGI)为主导的新时代。企业纷纷官宣“ AI+ ”战略,为新兴技术⼈才创造丰富的就业机会,⼈才缺⼝将达 400 万!
DeepSeek问世以来,生成式AI和大模型技术爆发式增长,让很多岗位重新成了炙手可热的新星,岗位薪资远超很多后端岗位,在程序员中稳居前列。
与此同时AI与各行各业深度融合,飞速发展,成为炙手可热的新风口,企业非常需要了解AI、懂AI、会用AI的员工,纷纷开出高薪招聘AI大模型相关岗位。
最近很多程序员朋友都已经学习或者准备学习 AI 大模型,后台也经常会有小伙伴咨询学习路线和学习资料,我特别拜托北京清华大学学士和美国加州理工学院博士学位的鲁为民老师给大家这里给大家准备了一份涵盖了AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频 全系列的学习资料,这些学习资料不仅深入浅出,而且非常实用,让大家系统而高效地掌握AI大模型的各个知识点。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】

AI大模型系统学习路线
在面对AI大模型开发领域的复杂与深入,精准学习显得尤为重要。一份系统的技术路线图,不仅能够帮助开发者清晰地了解从入门到精通所需掌握的知识点,还能提供一条高效、有序的学习路径。
但知道是一回事,做又是另一回事,初学者最常遇到的问题主要是理论知识缺乏、资源和工具的限制、模型理解和调试的复杂性,在这基础上,找到高质量的学习资源,不浪费时间、不走弯路,又是重中之重。
AI大模型入门到实战的视频教程+项目包
看视频学习是一种高效、直观、灵活且富有吸引力的学习方式,可以更直观地展示过程,能有效提升学习兴趣和理解力,是现在获取知识的重要途径
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
海量AI大模型必读的经典书籍(PDF)
阅读AI大模型经典书籍可以帮助读者提高技术水平,开拓视野,掌握核心技术,提高解决问题的能力,同时也可以借鉴他人的经验。对于想要深入学习AI大模型开发的读者来说,阅读经典书籍是非常有必要的。
600+AI大模型报告(实时更新)
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
AI大模型面试真题+答案解析
我们学习AI大模型必然是想找到高薪的工作,下面这些面试题都是总结当前最新、最热、最高频的面试题,并且每道题都有详细的答案,面试前刷完这套面试题资料,小小offer,不在话下
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】

更多推荐
所有评论(0)