大模型时代:提示工程架构师如何让AI提示更具包容性?

一、引言:当AI“偏见”成为真实世界的痛

2022年,斯坦福大学发布的《AI公平性报告》指出:37%的医疗AI模型对非裔美国人的糖尿病风险预测误差比白人高40%;同年,亚马逊的招聘AI因“自动歧视女性简历”被迫下架——这些不是科幻小说里的剧情,而是AI渗透进医疗、招聘、教育等核心场景时,真实发生的“包容性危机”。

在大模型时代,AI的决策不再是代码逻辑的直接输出,而是**“提示(Prompt)+ 模型知识”的协同结果**。作为连接人类需求与模型能力的“翻译官”,提示工程架构师的职责早已不是“写出有效的Prompt”那么简单——我们需要让AI的输出兼顾“准确性”与“包容性”,确保不同性别、年龄、种族、残障状况、文化背景的用户,都能被公平对待、有效服务。

这篇文章将从原则、技术、实战三个维度,拆解“包容性提示工程”的底层逻辑,帮你掌握让AI更“有温度”的核心方法。

二、什么是“包容性提示”?重新定义AI的“用户视角”

在讨论“如何做”之前,我们需要先明确:包容性提示不是“政治正确的话术游戏”,而是对“用户需求多样性”的系统回应

2.1 包容性提示的核心定义

包容性提示(Inclusive Prompt)是指:通过结构化的指令、多元的上下文与动态的参数设计,引导大模型输出考虑“用户身份差异、情境特殊性、文化语境”的结果,避免刻板印象、偏见或遗漏边缘群体需求

举个反例:当用户问“如何给孩子选绘本?”,如果Prompt写“推荐适合3-6岁孩子的绘本”,模型可能默认“所有孩子都喜欢卡通风格”——但实际上,自闭症儿童可能需要“低刺激画面”的绘本,视障儿童需要“有声+触觉”的绘本,这些需求会被默认Prompt完全忽略。

而包容性Prompt会这样设计:

“你是一位儿童绘本推荐专家,请根据以下用户需求推荐:

  1. 孩子年龄:3岁;
  2. 特殊需求:自闭症(对高饱和度色彩敏感);
  3. 家长期望:帮助孩子理解情绪。
    请说明推荐理由,并标注每本绘本对‘自闭症儿童’的适配点。”

2.2 包容性提示的4大底层原则

要设计有效的包容性提示,必须先建立“用户需求的多元性框架”。我将其总结为4条原则:

原则1:身份中立≠去身份化——“不预设,只询问”

很多人误以为“包容性”就是“避免提到身份”,但这是典型的误区:身份是用户需求的重要线索(比如孕妇需要“无咖啡因食谱”),但预设身份才是偏见的根源

❌ 错误示例(预设身份):“推荐适合老人的手机”(默认老人都不会用智能功能)
✅ 正确示例(身份中立+主动询问):“请先告诉我用户的年龄、手机使用习惯(如是否常用微信/拍照),我会推荐适配的机型”

原则2:普适需求与特殊需求的“双轨设计”

大模型的训练数据往往偏向“主流群体”(比如中文互联网的“年轻白领”),因此提示需要同时覆盖“普适场景”与“边缘场景”

比如设计“旅游攻略”提示时,需要包含:

  • 普适需求:景点推荐、交通路线;
  • 特殊需求: wheelchair accessible(轮椅可达)、清真餐厅、母婴室位置。
原则3:文化语境的“主动适配”——避免“文化挪用”

当提示涉及跨文化场景时,必须主动识别文化差异。比如:

  • 给美国用户推荐“春节礼物”时,要说明“红包是中国新年的传统,但美国人更习惯包装精美的实物”;
  • 给穆斯林用户推荐“健身计划”时,要避开“ Ramadan(斋月)期间的高强度运动”。
原则4:反馈闭环的“包容性设计”——让边缘群体参与迭代

包容性不是“设计师拍脑袋决定的”,而是通过用户反馈持续修正的。比如:

  • 在提示中加入“如果我的回答没有覆盖你的需求,请告诉我你的具体情况”;
  • 收集边缘群体的反馈(如残障用户、少数族裔),将其转化为Prompt的“示例库”。

三、技术拆解:包容性提示的“工程化实现”

接下来,我们从Prompt结构设计、多元上下文注入、参数调优、评估体系四个层面,讲解包容性提示的具体技术。

3.1 Prompt结构设计:用“四层框架”覆盖多元需求

包容性Prompt的核心结构可以总结为“指令层→情境层→示例层→输出约束层”,每层都有明确的包容性设计目标:

层1:指令层——明确“包容性要求”

在Prompt的最开头,用具体、可操作的语言告诉模型“需要考虑什么”。比如:

“你是一个包容性的客户服务AI,回答需满足以下要求:

  • 考虑用户的性别、年龄、残障状况(如视力/听力障碍);
  • 避免使用刻板印象词汇(如‘女性更适合内勤’‘老人不会用手机’);
  • 若用户未说明特殊需求,主动询问‘是否有需要特别注意的情况?’”

注意:指令必须“可衡量”——不要写“请友好回答”,要写“请使用无歧视性语言,避免预设用户能力”。

层2:情境层——注入“多元变量”

情境层的作用是将用户的“身份特征”转化为模型可理解的变量。比如,我们可以用“键值对”或“结构化表格”来组织情境信息:

变量名 说明 示例值
user_age 用户年龄 65岁
disability_type 残障类型(如有) 视障(需要语音引导)
cultural_bg 文化背景 穆斯林(需避开猪肉成分)
language_level 语言熟练度 初级(需用简单词汇)

在Prompt中,我们可以用模板引擎(如LangChain的PromptTemplate)动态插入这些变量:

from langchain.prompts import PromptTemplate

inclusive_prompt = PromptTemplate(
    input_variables=["user_question", "user_age", "disability_type", "cultural_bg"],
    template="""
你是一个包容性的生活顾问,需要回答用户的问题:{user_question}  
请考虑以下用户信息:  
- 年龄:{user_age}  
- 残障情况:{disability_type}  
- 文化背景:{cultural_bg}  

回答要求:  
1. 避免刻板印象;  
2. 若涉及特殊需求(如视障),提供具体解决方案;  
3. 解释推荐的“适配性”(如“这款APP有语音读屏功能,适合视障用户”)。
"""
)
层3:示例层——用“多元Few-shot”纠正模型偏见

大模型的输出高度依赖“示例”(Few-shot Learning),因此示例的多样性直接决定了输出的包容性

比如,当设计“招聘JD生成”的Prompt时,示例需要覆盖不同性别、岗位的情况:

示例1(女性+技术岗):
用户需求:生成“Python开发工程师”的JD
输出:“我们寻找具备Python开发经验的工程师,欢迎女性候选人申请——团队有完善的母婴支持政策。”

示例2(残障+运营岗):
用户需求:生成“用户运营”的JD
输出:“我们寻找擅长用户沟通的运营人员,欢迎听障候选人申请——团队提供手语翻译工具支持。”

关键技巧:示例要“反刻板印象”——比如用“女性技术岗”“残障运营岗”的例子,纠正模型“技术岗=男性”“运营岗=无残障”的偏见。

层4:输出约束层——用“规则”确保包容性

输出约束层的作用是用明确的规则过滤偏见内容。比如:

“请检查回答是否包含以下内容,若有则修改:

  1. 预设某一群体的能力(如“老人学不会这个功能”);
  2. 使用歧视性词汇(如“残废”“剩女”);
  3. 遗漏特殊需求(如未提到轮椅可达路线)。”

在代码中,我们可以用正则表达式大模型自身的Moderation API(如OpenAI的moderations.create)来实现自动检查:

import openai

def check_inclusivity(response):
    moderation = openai.Moderation.create(input=response)
    if moderation["results"][0]["flagged"]:
        return False, "回答包含敏感内容"
    # 检查刻板印象词汇
    stereotype_words = ["老人学不会", "女性不适合", "残废"]
    for word in stereotype_words:
        if word in response:
            return False, f"回答包含刻板印象:{word}"
    return True, "通过检查"

3.2 多元上下文注入:让模型“看见”边缘群体

大模型的“偏见”本质上是训练数据的“代表性不足”——比如,训练数据中“视障用户的需求”占比极低,模型自然无法生成相关内容。因此,我们需要主动向Prompt中注入“边缘群体的上下文”

方法1:动态插入“边缘群体需求库”

我们可以维护一个“边缘群体需求库”(比如JSON文件),包含不同群体的典型需求:

{
  "视障用户": ["需要语音读屏功能", "避免复杂的图形验证码"],
  "自闭症儿童": ["需要低刺激的视觉设计", "用简单直白的语言解释"],
  "穆斯林用户": ["避开猪肉、酒精成分", "推荐清真认证的餐厅"]
}

在Prompt生成时,根据用户的身份特征,自动插入对应的需求:

import json

with open("marginalized_groups.json", "r") as f:
    marginalized_needs = json.load(f)

def inject_marginalized_context(prompt, user_groups):
    for group in user_groups:
        if group in marginalized_needs:
            needs = ", ".join(marginalized_needs[group])
            prompt += f"\n需特别注意:{group}的需求包括{needs}"
    return prompt

# 示例:用户是“视障用户”
user_groups = ["视障用户"]
prompt = "推荐一款好用的购物APP"
prompt_with_context = inject_marginalized_context(prompt, user_groups)
# 输出:推荐一款好用的购物APP\n需特别注意:视障用户的需求包括需要语音读屏功能, 避免复杂的图形验证码
方法2:用“角色模拟”测试边缘场景

为了确保Prompt覆盖边缘群体,我们可以用角色模拟法——让模型扮演不同身份的用户,测试Prompt的输出是否符合需求。

比如,设计“医疗咨询”Prompt时,我们可以让模型扮演“60岁糖尿病患者+视障”,提问“如何监测血糖?”,然后检查输出是否包含“语音播报血糖值的血糖仪”“大字体的血糖记录APP”等内容。

在LangChain中,可以用HumanMessageAIMessage模拟多轮对话:

from langchain.chat_models import ChatOpenAI
from langchain.schema import HumanMessage, AIMessage

chat = ChatOpenAI(temperature=0.5)

# 模拟视障糖尿病患者的提问
messages = [
    HumanMessage(content="我是60岁的糖尿病患者,有视障,请问如何监测血糖?"),
    AIMessage(content="(等待模型输出)")
]

response = chat(messages).content
# 检查输出是否包含“语音播报”“大字体”等关键词

3.3 参数调优:平衡“包容性”与“准确性”

大模型的参数(如temperaturetop_pmax_tokens)会直接影响输出的“多样性”与“准确性”。对于包容性提示,我们需要找到“多样性足够覆盖边缘群体”与“准确性不下降”的平衡点

参数1:Temperature(温度)——控制输出的“随机性”

temperature的取值范围是0~2,值越高,输出越随机(多样性越高);值越低,输出越确定(准确性越高)。

  • 当需要覆盖边缘群体时,建议将temperature设置为0.5~0.8——既保证多样性,又避免输出离谱内容;
  • 当处理医疗、法律等强准确性场景时,temperature可降低至0.3~0.5,同时通过“示例层”注入边缘群体的需求。
参数2:Top-P(核采样)——控制输出的“相关性”

top_p(也叫nucleus sampling)会选择“累积概率达到p的最可能的token集合”,值越高,输出的多样性越高。

对于包容性提示,建议top_p设置为0.7~0.9——确保模型在“相关内容”中选择多样性的输出,避免跑题。

参数3:Frequency Penalty(频率惩罚)——减少“刻板印象”的重复

frequency_penalty会惩罚重复出现的token,值越高,模型越倾向于使用新词汇。

当需要避免“刻板印象词汇”(如“老人学不会”)时,建议将frequency_penalty设置为0.3~0.5——减少模型重复使用这些词汇的概率。

3.4 评估体系:如何衡量“包容性”的效果?

包容性不是“主观感觉”,而是可以量化+定性评估的。以下是我常用的评估指标:

量化指标
  1. 覆盖度:回答是否覆盖了用户的所有身份特征(如视障用户→是否提到语音功能);
  2. 偏见率:回答中出现刻板印象词汇的频率(如“老人学不会”出现的次数);
  3. 满意度:边缘群体用户对回答的满意度评分(1~5分)。
定性指标
  1. 适配性:回答是否针对用户的特殊需求提供了具体解决方案(如“推荐带语音播报的血糖仪”vs“推荐好用的血糖仪”);
  2. 文化敏感性:回答是否符合用户的文化背景(如穆斯林用户→是否避开猪肉成分);
  3. 反馈率:用户主动提供“未被覆盖的需求”的比例(比例越高,说明Prompt的包容性越不足)。

四、项目实战:构建一个“包容性医疗咨询AI”

接下来,我们用Python+LangChain+OpenAI实现一个“包容性医疗咨询AI”,完整演示包容性提示的工程化流程。

4.1 开发环境搭建

  1. 安装依赖:
    pip install langchain openai python-dotenv
    
  2. 配置OpenAI API密钥:
    创建.env文件,写入:
    OPENAI_API_KEY=your-api-key
    

4.2 需求分析:明确“包容性目标”

我们的AI需要满足以下需求:

  • 支持不同年龄、性别、残障状况的用户;
  • 针对糖尿病、高血压等慢性病,提供“适配性建议”;
  • 避免刻板印象(如“老年人不需要运动”);
  • 主动询问未说明的特殊需求。

4.3 Prompt结构设计

根据之前的“四层框架”,我们设计Prompt模板:

from langchain.prompts import PromptTemplate
from dotenv import load_dotenv

load_dotenv()

inclusive_medical_prompt = PromptTemplate(
    input_variables=[
        "user_question", "age", "gender", "disability", "chronic_disease"
    ],
    template="""
你是一位包容性的医疗咨询师,需要回答用户的问题:{user_question}  
请考虑以下用户信息:  
- 年龄:{age}  
- 性别:{gender}  
- 残障情况:{disability}  
- 慢性病:{chronic_disease}  

回答要求:  
1. 避免使用刻板印象(如“女性更适合保守治疗”“老人不需要运动”);  
2. 针对残障情况提供具体解决方案(如视障→推荐语音播报的设备);  
3. 针对慢性病提供“适配性建议”(如糖尿病→推荐低GI食物,同时考虑用户的文化背景);  
4. 若用户未说明特殊需求,主动询问“是否有需要特别注意的健康状况?”  

请用简单易懂的语言回答,并标注每一条建议的“适配原因”。
"""
)

4.4 多元示例注入

我们为Prompt添加3个“反刻板印象”的示例:

from langchain.prompts import FewShotPromptTemplate, ExampleSelector
from langchain.prompts.example_selector import SemanticSimilarityExampleSelector
from langchain.vectorstores import FAISS
from langchain.embeddings import OpenAIEmbeddings

# 定义示例
examples = [
    {
        "user_question": "糖尿病患者如何选择零食?",
        "age": "65岁",
        "gender": "女",
        "disability": "视障",
        "chronic_disease": "2型糖尿病",
        "output": """
推荐以下零食:  
1. 原味坚果(适配原因:低GI,富含蛋白质,视障用户可通过触觉识别);  
2. 无糖黑芝麻糊(适配原因:低糖,易冲泡,包装有盲文标识);  
3. 冻干水果片(适配原因:天然糖分,口感脆,方便视障用户抓取)。  
注意:请选择带“盲文标识”的包装,避免添加糖的产品。
"""
    },
    {
        "user_question": "高血压患者如何运动?",
        "age": "40岁",
        "gender": "男",
        "disability": "下肢残障(坐轮椅)",
        "chronic_disease": "原发性高血压",
        "output": """
推荐以下运动:  
1. 轮椅太极(适配原因:低强度,改善血液循环,适合下肢残障用户);  
2. 上肢力量训练(如举哑铃,适配原因:增强心肺功能,不加重下肢负担);  
3. 室内游泳(适配原因:水的浮力减轻身体压力,适合残障用户)。  
注意:运动前请测量血压,避免在血压过高时运动。
"""
    },
    {
        "user_question": "孕妇如何补充营养?",
        "age": "28岁",
        "gender": "女",
        "disability": "无",
        "chronic_disease": "缺铁性贫血",
        "output": """
推荐以下营养补充方案:  
1. 红肉(如牛肉,适配原因:富含血红素铁,易吸收,适合缺铁性贫血的孕妇);  
2. 深绿色蔬菜(如菠菜,适配原因:富含非血红素铁,搭配维生素C(如橙子)吸收更好);  
3. 孕妇补铁剂(适配原因:医生推荐的剂量,补充饮食不足的铁)。  
注意:避免喝浓茶/咖啡,会抑制铁吸收。
"""
    }
]

# 使用语义相似性示例选择器(根据用户问题选择最相关的示例)
example_selector = SemanticSimilarityExampleSelector.from_examples(
    examples,
    OpenAIEmbeddings(),
    FAISS,
    k=2  # 选择2个最相关的示例
)

# 构建Few-shot Prompt
few_shot_prompt = FewShotPromptTemplate(
    example_selector=example_selector,
    example_prompt=PromptTemplate(
        input_variables=["user_question", "age", "gender", "disability", "chronic_disease", "output"],
        template="""
用户问题:{user_question}  
用户信息:年龄={age},性别={gender},残障={disability},慢性病={chronic_disease}  
回答:{output}
"""
    ),
    prefix=inclusive_medical_prompt.template,
    suffix="用户问题:{user_question}\n用户信息:年龄={age},性别={gender},残障={disability},慢性病={chronic_disease}\n回答:",
    input_variables=["user_question", "age", "gender", "disability", "chronic_disease"]
)

4.5 模型调用与评估

我们用ChatOpenAI调用模型,并添加包容性检查:

from langchain.chat_models import ChatOpenAI
from langchain.chains import LLMChain

# 初始化模型
llm = ChatOpenAI(temperature=0.6, model_name="gpt-3.5-turbo")

# 构建链
chain = LLMChain(llm=llm, prompt=few_shot_prompt)

# 测试1:视障糖尿病患者
test_input1 = {
    "user_question": "糖尿病患者如何监测血糖?",
    "age": "65岁",
    "gender": "女",
    "disability": "视障",
    "chronic_disease": "2型糖尿病"
}

response1 = chain.run(test_input1)
print("测试1输出:", response1)

# 测试2:下肢残障高血压患者
test_input2 = {
    "user_question": "高血压患者如何运动?",
    "age": "40岁",
    "gender": "男",
    "disability": "下肢残障(坐轮椅)",
    "chronic_disease": "原发性高血压"
}

response2 = chain.run(test_input2)
print("测试2输出:", response2)

# 包容性检查
def evaluate_inclusivity(response, user_input):
    # 检查是否覆盖残障需求
    if user_input["disability"] != "无" and user_input["disability"] not in response:
        return "未覆盖残障需求"
    # 检查是否有刻板印象
    stereotype_words = ["老人不需要运动", "女性更适合保守治疗"]
    for word in stereotype_words:
        if word in response:
            return f"包含刻板印象:{word}"
    # 检查是否有适配原因
    if "适配原因" not in response:
        return "未说明适配原因"
    return "通过包容性检查"

print("测试1评估:", evaluate_inclusivity(response1, test_input1))
print("测试2评估:", evaluate_inclusivity(response2, test_input2))

4.6 输出示例与分析

测试1输出(视障糖尿病患者):

推荐以下血糖监测方案:

  1. 语音播报血糖仪(适配原因:视障用户可通过语音听到血糖值,无需看屏幕);
  2. 大字体血糖记录APP(适配原因:部分视障用户保留一定视力,大字体更易识别);
  3. 家人协助记录(适配原因:若用户完全无法视物,家人可帮忙记录血糖值)。
    注意:选择血糖仪时,请确认有“盲文标识”或“语音引导”功能,避免操作困难。

评估结果:通过包容性检查——覆盖了视障需求,无刻板印象,说明了适配原因。

五、实际应用场景:包容性提示的“落地清单”

包容性提示不是“通用解法”,而是需要结合具体场景调整。以下是几个高频场景的落地建议:

5.1 医疗场景:关注“特殊人群的治疗适配”

  • 针对残障用户:提示需包含“设备的无障碍功能”(如语音播报、盲文标识);
  • 针对孕妇/哺乳期女性:提示需包含“药物的妊娠分级”(如FDA的A/B/C/D/X级);
  • 针对少数民族:提示需包含“传统饮食的适配”(如回族→推荐清真认证的药物)。

5.2 教育场景:适应“不同学习风格”

  • 视觉学习者:提示需包含“图表、思维导图”的建议;
  • 听觉学习者:提示需包含“有声书、 podcast”的建议;
  • 动觉学习者:提示需包含“实验、动手操作”的建议;
  • 自闭症学生:提示需包含“低刺激的学习环境”(如安静的教室、结构化的任务)。

5.3 招聘场景:消除“性别/年龄偏见”

  • 针对女性候选人:提示需包含“母婴支持政策”(如弹性工作制、哺乳室);
  • 针对老年候选人:提示需包含“经验优势”(如“欢迎有10年行业经验的候选人”);
  • 针对残障候选人:提示需包含“无障碍办公环境”(如升降梯、手语翻译)。

5.4 客户服务场景:覆盖“多元需求”

  • 针对视障用户:提示需包含“语音引导”“盲文手册”的建议;
  • 针对听障用户:提示需包含“文字客服”“手语视频”的建议;
  • 针对外籍用户:提示需包含“多语言支持”(如英语、西班牙语)的建议。

六、工具与资源推荐:提升包容性提示的效率

6.1 提示工程工具

  • LangChain:提供PromptTemplate、FewShotPrompt等功能,方便动态注入多元变量;
  • PromptLayer:跟踪Prompt的输出效果,方便迭代优化;
  • Hugging Face Datasets:提供“多元人群数据集”(如civil_comments包含不同种族、性别的评论),用于测试Prompt的包容性。

6.2 包容性评估工具

  • OpenAI Moderation API:检测回答中的敏感内容;
  • IBM AI Fairness 360:开源工具包,用于评估AI模型的公平性;
  • Google What-If Tool:可视化工具,可模拟不同群体的输入,观察模型输出的差异。

6.3 学习资源

  • 书籍:《Inclusive Design Patterns》(作者:Heather Dowdy)——讲解如何设计包容性的数字产品;
  • 课程:Coursera《AI for Everyone》——包含AI公平性的章节;
  • 论文:《Mitigating Bias in Generative AI with Prompt Engineering》(斯坦福大学,2023)——最新的包容性提示研究。

七、未来趋势与挑战:包容性提示的“下一步”

7.1 未来趋势

  1. 自动包容性提示生成:用大模型自身生成包容性Prompt(如“请帮我设计一个包容视障用户的Prompt”);
  2. 多模态包容性:覆盖图像、语音等多模态内容(如生成“适合视障用户的图片描述”“适合听障用户的手语视频”);
  3. 跨语言包容性:支持低资源语言(如非洲的斯瓦希里语、东南亚的越南语),确保边缘语言群体的需求被覆盖;
  4. 实时反馈闭环:通过用户的实时反馈(如“这个回答没有覆盖我的需求”),自动调整Prompt。

7.2 核心挑战

  1. 包容性的“量化难题”:如何定义“足够包容”?比如,覆盖多少群体才算“包容”?
  2. 文化冲突的“平衡难题”:当不同文化的需求冲突时(如“某些文化中女性不适合抛头露面”vs“性别平等”),如何选择?
  3. 准确性与包容性的“权衡难题”:当包容性要求与准确性冲突时(如“推荐带语音功能的血糖仪”vs“推荐最准确的血糖仪”),如何平衡?

八、结语:包容性不是“目标”,而是“过程”

在大模型时代,“技术中立”是一个谎言——每一行Prompt都隐含着设计者的价值观。作为提示工程架构师,我们的职责不是“让AI更聪明”,而是“让AI更懂人”。

包容性提示不是“一次性的任务”,而是“持续迭代的过程”:它需要我们不断倾听边缘群体的声音,不断修正Prompt的设计,不断平衡“技术效率”与“人文关怀”。

最后,我想引用麻省理工学院AI实验室主任丹妮拉·鲁斯的话:“AI的终极目标不是‘超越人类’,而是‘服务人类’——而服务人类的前提,是看见每一个人的需求。”

愿我们都能成为“看见需求的人”,让AI真正成为“有温度的技术”。

附录:包容性提示设计流程图(Mermaid)

graph TD
    A[需求分析:明确目标用户] --> B[原则定义:身份中立、双轨设计、文化适配、反馈闭环]
    B --> C[Prompt结构设计:指令层→情境层→示例层→输出约束层]
    C --> D[多元上下文注入:边缘群体需求库、角色模拟]
    D --> E[参数调优:Temperature、Top-P、Frequency Penalty]
    E --> F[测试评估:量化指标(覆盖度、偏见率)+ 定性指标(适配性、文化敏感性)]
    F --> G[反馈迭代:收集边缘群体反馈,修正Prompt]
    G --> C
Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐