《从“原则清单”到心理现实主义:全球语境下AI伦理的文化响应式转向》
从“负责任AI”“可信赖AI”“AI 治理”“信任与安全”,到各国政府、国际组织、科技公司发布的一系列原则、准则与框架,似乎只要把“透明、公平、隐私、问责”几项价值写进文件,AI 就可以自动变得“更有伦理”。相反,它要求 AI 伦理学者、政策制定者和技术从业者,放下对“一次性解决方案”的期待,转而投入到艰苦的跨学科合作与长期实证研究中:在不同文化中做田野,在不同组织里做访谈,在不同项目上做跟踪,在
1. 引言:为什么“全球AI伦理”越来越行不通?
在过去几年里,几乎所有和人工智能相关的会议、政策报告、技术文档里都会出现一个高频词——“AI 伦理”。从“负责任AI”“可信赖AI”“AI 治理”“信任与安全”,到各国政府、国际组织、科技公司发布的一系列原则、准则与框架,似乎只要把“透明、公平、隐私、问责”几项价值写进文件,AI 就可以自动变得“更有伦理”。然而,真正的问题在于:这些倡议到底有没有用?它们代表的是谁的价值观?在全球范围内,它们到底在帮助解决问题,还是在制造一种“伦理已经被考虑过”的幻觉?
Clancy、Zhu 和 Majumdar 在 2025 年发表在《AI and Ethics》上的论文《Exploring AI ethics in global contexts: a culturally responsive, psychologically realist approach》,正是从这个角度,对当前全球 AI 伦理话语进行了一次系统反思,提出了一个核心主张:如果 AI 伦理要在全球语境中真正起作用,它必须同时做到“文化响应式”(culturally responsive)和“心理现实主义”(psychologically realist)。(SpringerLink)
所谓“文化响应式”,不是在原则清单里额外加几条“东方智慧”“全球南方价值”,而是要真正理解不同文化中人们如何看待对错、如何在具体情境中做决策;所谓“心理现实主义”,则是从道德心理学、文化心理学、社会学、人类学等实证研究出发,去理解人们实际上是怎样思考和行动的,而不是把伦理理解为“在纸上写几个‘应该’”。在作者看来,如果 AI 伦理继续停留在只讲原则、不看人,且主要基于西方“WEIRD”(西方、受教育、工业化、富裕、民主)文化的抽象假设,那么不但很难真正指导实践,甚至有可能加剧全球范围内的不平等与误解。
2. 现有全球 AI 伦理倡议:规范性、清单化与 WEIRD 偏向
在进入作者提出的新框架之前,需要先理解他们批评的对象——当下已经铺天盖地的各类 AI 伦理倡议。大量综述研究对全球数百份 AI 伦理准则、政策文件和行业框架进行了编码和对比分析,发现一个非常显著的特征:它们高度同质化,并且大多是典型的“规范性”(normative)文献。
所谓“规范性”,就是围绕“应该如何做”来组织内容:什么是应该遵守的原则?什么行为是被禁止的?应当承担什么责任?这些文件往往以价值列表开头(如隐私、公平、透明、问责、可靠性等),接着给出一组原则,再往下是框架、工具、检查表和流程。乍看之下,它们形成了一个完整的“伦理工具包”,技术团队只要照着打勾,就似乎完成了伦理合规。然而,论文指出,这种以原则清单为中心的做法至少存在三重问题。
第一,价值与原则的选择本身是文化嵌入的。当前主流 AI 伦理倡议在价值排序上,明显偏向于强调个人权利、隐私、自主性和透明度,这与 WEIRD 文化中强调独立自我、个人权利与契约关系的传统高度一致。在这种视角下,伦理问题往往被理解为:个人是否知情?数据是否被合理使用?算法是否充分解释?公司是否履行责任?但在很多非西方文化中,人们对自我与社会的理解更偏向“相互依存”的关系性视角,强调家庭、群体、权威、神圣性等多种道德直觉,而非仅仅围绕个人权利这一条轴线。
第二,这些倡议虽然口头上都在谈“全球”“人类共同体”,但在作者引用的实证综述中,绝大多数参与制定这些准则的机构仍然集中在欧洲和北美,其成员多是受过高等教育的技术专家、法学家或政策工作者。即便有来自其他地区和少数群体的代表,他们在教育背景、职业轨迹和国际社交网络上,其实与欧美精英高度同质,很难真正代表其本地普通民众的生活经验与道德直觉。
第三,这种“规范性+清单式”的 AI 伦理,天然忽略了一个关键事实:就像安全制度、财务制度一样,写在纸上的原则并不会自动转化为人的行为。组织伦理学和行为经济学早已经表明,人们在实际情境中的决策,往往更多地受环境、激励、群体规范和心理偏差影响,而不是抽象原则本身。但在当前很多 AI 伦理讨论中,这一层面几乎被系统性忽视。

Fig.1 “主流全球 AI 伦理倡议的三层结构:价值列表—原则框架—工具与流程”
在这张概念图中,可以将当前 AI 伦理倡议简化为三层:顶层是抽象价值(如公平、隐私),中层是原则与框架(如说明“透明性”意味着要进行模型可解释性分析),底层是工具与流程(如检查清单、审核流程)。而作者要做的事情,就是在这三层之下加上一个被忽略的地基:现实中的人类心理与文化差异。
3. 去偏努力的困境:更多代表性 ≠ 真正的文化响应
为了回应“西方中心主义”的批评,近年来一些机构开始有意在 AI 伦理中加入更多“多元文化元素”。它们的做法大致可以分成两个方向:一是让参与制定准则的委员会在地理、种族、性别上更“多元”;二是把非西方哲学与伦理传统的概念写进原则文件,例如强调儒家伦理、非洲乌班图哲学、印度哲学中的相关概念等。UNESCO 的 AI 伦理建议书就是一个典型例子:它不仅吸纳了来自多国的专家,还强调要尊重“文化多样性”,并试图在“人权”框架下整合不同文化的价值。
乍一看,这似乎是一个朝向文化响应式 AI 伦理迈出的重要步伐。但论文指出,如果只停留在“代表性”和“符号性多元”的层面,上述努力仍然存在根本局限。
首先,多元化的代表并不等于真实地反映了本地群体的道德心理。参与国际委员会的专家往往接受了类似的学术训练,在国际学术网络中分享相似的语言与问题意识。他们即便出身于非西方社会,也可能已经在很大程度上内化了 WEIRD 风格的自我观念和伦理框架。换句话说,这些人更多是“全球知识阶层”的一部分,而不是真正意义上的“本地民众”。因此,把他们的意见当作“某文化整体的声音”,本身就是一种过度简化与象征化。
其次,把传统哲学概念直接搬进政策文本,很容易变成“文化符号装饰”。例如,有人主张在中国的 AI 伦理中融入儒家“仁义礼智信”等概念,但这并不能证明当代中国社会中的普通人真正在做伦理判断时会以这些概念作为主要依据。事实上,当代人的道德直觉往往是多重来源的:既有本地传统,也有现代法治、人权话语,还有消费主义、互联网文化、宗教或无神论等。只在文件中写下几个“传统概念”,既不能捕捉这种复杂性,还可能加剧刻板印象甚至“东方主义”式的文化想象。
第三,以“人权”为最低公分母建立所谓“最小模型”的全球治理方案,本身也有重大的文化与心理张力。跨文化的研究表明,相比多数非西方人群,WEIRD 群体更容易用“权利”“义务”“意向性”等抽象语汇来描述道德问题,而很多其他文化在评估是非时往往更看重结果、关系以及情境。 这并非意味着人权不重要,而是说:如果我们只把人权当作唯一合法的伦理话语,就很可能无法理解、也无法有效回应全球多数人口的道德直觉和实践经验。
在这一点上,作者特别提醒:真正的文化响应式,不是“把每个文化的传统价值列一个清单”,而是要通过实证研究去理解具体人群在具体情境中如何进行道德判断、如何理解 AI,如何在不同价值之间做权衡。这就直接引出了他们的另一个关键概念——“心理现实主义”。
4. AI 伦理倡议为何经常“纸上谈兵”?——从行为与组织视角看其失效机理
除了文化偏向,论文对现有 AI 伦理倡议的另一大批评,是它们在行为层面上缺乏“可操作性”与“心理现实性”。大量研究已经指出,人们对当下 AI 伦理文件充满质疑:它们往往只停留在高层原则,不知道如何落地;即使制定了流程和工具,在公司业务压力面前,这些“伦理团队”也常常被边缘化,甚至在财务紧缩时率先被裁掉。
为了应对这些问题,人们提出了几条看似不同但实则同构的“解决方案”:
-
一部分学者主张从规则伦理转向“德性伦理”,认为只要培养开发者的“美德”(如诚实、责任感、同理心),他们就会在具体情境中做出更好的选择。
-
另一部分则寄希望于更严厉的法律监管,通过立法与强制执行来约束公司行为。
-
还有一大类做法强调通过“技术修补”解决伦理问题,例如设计更完善的审计算法、更精细的偏差检测工具、更多的可解释性技术等。
这些思路各有合理性,但作者指出,它们都有一个共同盲点:对人的行为方式、心理机制和社会环境缺乏足够的现实理解。道德心理学与行为科学早就指出,人类并不是那种“拥有稳定德性、遵守清晰原则的理性行动者”。相反,人们的行为常常高度情境化,会受到情绪、时间压力、激励结构、群体规范、领导期望等多种因素影响。例如,一个人在日常生活中可能“收银台很诚实”(多找的钱一定还回去),但在考试、绩效考核或团队竞争环境下,却可能做出完全不同的决策。
从组织层面看,伦理倡议之所以容易失败,也不仅是因为“缺乏法律约束”或“个人品格不够好”,而是因为组织中的非正式规范往往比正式制度更有力量:你看到上级怎么做,就会潜移默化地学着怎么做;你从同事那里感受到“什么才是被默许的行为”,往往比 HR 文档上写的“价值观”更能影响你的实际操作。在这种情况下,只靠在墙上贴“诚信、公平、透明”的海报,远远不够。

Fig.2 “AI 伦理倡议从原则到行为的断裂链条:规则、德性、法律、技术修补 vs. 实际行为驱动因素”
在这张图中,可以把传统的几种改良策略(德性伦理、法律监管、技术修补)放在一边,把行为科学指出的关键因素(情境、激励、群体规范、认知偏差)放在另一边,中间用虚线表示“未被充分连接”的理论空白。作者的核心主张,就是要用“心理现实主义”的视角,将这两侧连接起来。
5. 心理现实主义:从“应该如何”转向“人实际上如何思考与行为”
要理解“心理现实主义”在 AI 伦理中的意义,需要先回到一个古老的哲学区分:规范性(normative)与描述性(descriptive)。传统伦理学关心的是“什么是对的”“我们应该做什么”;而道德心理学关心的是“人们实际上如何做判断、如何行动”。如果只停留在规范层面而完全忽视描述层面,就像论文中所说,试图修理一个马桶,却不愿先了解管道系统是怎么工作的。
心理现实主义并不是要用“人现在怎么做”去直接推导出“人应该怎么做”——那会犯著名的“自然主义谬误”(从“是”推导出“应当”)。作者多次强调,规范判断仍然重要,我们不能简单地说“既然大家都这么做,这就是对的”。真正的关键在于:如果我们希望某种伦理标准在现实世界中起作用,就必须理解人们在不同文化、不同职业、不同组织中的实际心理机制,否则这些标准就只能停留在道德口号层面。
在跨文化道德心理学的研究中,已经有大量证据表明,WEIRD 与非 WEIRD 人群在诸多维度上存在系统性差异,例如:
-
自我理解:WEIRD 人群更倾向于把自己看作独立的个体,强调个人选择和自我实现;许多非西方文化则更重视人与家庭、群体、社会角色之间的关系,把自我视为嵌入式、相互依存的存在。
-
道德直觉:在所谓“道德基础理论”的框架中,WEIRD 群体更强调“关怀”和“公正”,而对“忠诚、权威、神圣”相对弱化;而不少其他文化对这几种直觉的权重分配更为均衡,甚至在某些情境中更偏向集体利益、权威秩序或神圣价值。
-
责任归因:WEIRD 文化更关注行动者的意图和权利是否被侵犯;很多跨文化研究则发现,在许多群体中,人们在判断责任与惩罚时,更看重行为结果而非主观意图,即倾向于更“结果主义”的评价方式。
这些差异会如何影响 AI 伦理?举个简单例子:在一个高度重视个人隐私与自主性的文化中,数据收集和使用的核心问题是“是否征得个人知情同意”;而在某些强调群体利益和社会和谐的文化环境中,人们更可能从“这是否有利于集体福祉”“是否符合既有关系网络的期待”来评估同一件事。倘若我们只在全球范围内复制一种以“个人隐私权”为中心的伦理叙事,就很可能忽略了其他文化中关于“隐私”的不同含义与实践方式。
因此,心理现实主义在这里扮演的是一个“翻译器”和“检验器”的角色:一方面,它帮助我们翻译规范性原则到不同文化与心理结构中,理解这些原则在本地语境下可能被如何理解;另一方面,它也可以作为检验机制,通过实证研究来评估某项 AI 伦理倡议是否真正改变了人的行为,而不是只停留在纸面上。
6. 文化响应式:从“加几个本地概念”到真正理解多样道德心理
如果说心理现实主义强调的是“理解人如何思考和行动”,那么文化响应式则强调“理解不同文化如何塑造这种思考和行动”。在论文中,作者将这两者紧密地绑定在一起:只有在心理上真实的前提下,文化响应才有可能;没有对道德心理的实证理解,“文化响应”很容易沦为图腾化的标签操作。
文化响应式 AI 伦理,至少包含三个层面的含义。第一,它要求我们认真面对“全球大多数”的经验而不是只看少数精英的意见。比如,当前很多关于 AI 的民意调查和实验研究,都集中在欧美样本,哪怕是“跨文化”研究,也常常是“美国 vs. 少数几个其他国家”的对比,这会极大限制我们对全球态度多样性的理解。第二,它要求我们关注不同职业群体的差异:开发者、政策制定者、普通用户、被 AI 决策影响的群体,其道德直觉和关切点可能完全不同。第三,它要求我们放弃把文化理解为“静态传统”的做法,而是把文化视为在现代化、全球化和本地政治经济结构中不断重组的过程。

Fig.3 “心理现实主义与文化响应式 AI 伦理的嵌套关系:从个人心理到群体文化再到全球治理”
在这张图中,可以想象三层同心圆:最内层是个体心理机制(道德直觉、认知偏差、情绪与决策模式),中间层是群体与组织文化(专业文化、行业规范、公司氛围),最外层是宏观文化与全球治理结构(国家制度、历史经验、国际话语)。心理现实主义的研究重点在内层与中间层,而文化响应式则要求我们在构建 AI 伦理时同时考虑到三层之间的互动。
7. 传统 AI 伦理 vs.“心理现实主义+文化响应”框架:一个结构化对比
为了更清晰地总结作者的理论贡献,可以通过一个对比表格,把“传统/主流 AI 伦理”与“心理现实主义+文化响应框架”的关键差异勾勒出来。需要强调的是,表格只是帮助结构化理解,真正的理论内涵仍然需要通过长段落展开。
表1 传统AI伦理与“心理现实主义+文化响应”框架对比(根据 Clancy 等人论文梳理)
| 维度 | 传统/主流AI伦理倡议 | 心理现实主义+文化响应框架 |
|---|---|---|
| 理论基础 | 规范伦理学(权利、义务、原则、德性) | 道德心理学、文化心理学、社会学、人类学与规范伦理的互动 |
| 价值来源 | 主要来自 WEIRD 文化与精英机构 | 通过实证研究揭示多文化、多群体的真实道德直觉与价值结构 |
| 主要形式 | 价值与原则清单、框架、检查表、准则 | 理论模型+实证研究设计+面向行为改变的干预方案 |
| 对文化的理解 | 把“非西方价值”视为可加入的额外项目或修饰 | 把文化视为塑造心理机制与行为模式的深层结构 |
| 对行为的假设 | 假设人会在知道原则后按原则行事 | 认为行为受情境、激励、群体规范、认知偏差等多重因素影响 |
| 实施关注点 | 制定原则、流程、工具;要求机构“遵守” | 理解与改变实际行为;评估倡议在不同文化中的实际效果 |
| 典型风险 | 伦理洗白、口号化、多元主义表演 | 方法论复杂度高,需要跨学科合作与长期研究 |
表格中的每一列,都可以在论文中找到对应的论述支持。例如,作者指出,当前 AI 伦理倡议高度依赖权利话语与个人主义自我观念,而这些在全球不同文化中的适用性是有问题的;同时,他们也强调了行为科学对理解制度效果的重要性,指出如果不了解人们实际如何在组织与社会情境中做决策,任何伦理倡议都可能沦为形式主义。
8. 方法论启示:用行为与社会科学重构 AI 伦理研究路径
从理论走向方法,作者提出的“心理现实主义+文化响应”框架,并不是一套现成的“解决方案”,而更像是一种研究计划和方法论方向。这一方向至少在三个层面上对现有 AI 伦理研究提出了挑战。
8.1 超越“电车难题”:从抽象思想实验到具体情境研究
在过往很多关于自动驾驶、AI 决策的道德研究中,“电车难题”及其变种几乎成了标配。研究者设置一个极端情境:AI 应该撞向一人还是五人?是保乘客还是保行人?参与者在网络问卷中选择 A 或 B,然后研究者基于这些选择推演公众的“道德偏好”。论文对此持高度批评态度,认为这类思想实验的简化程度与现实相去甚远:真实世界的决策几乎从不在如此理想化的条件下发生,参与者的回答往往受问题表述和认知启发影响,很难直接外推到现实政策。
更重要的是,这类研究通常发生在欧美样本上,却常常被不加区分地当作“人类整体”的道德偏好。这与作者强调的心理现实主义与文化响应式恰好相反:前者忽视情境与文化,后者要求深度嵌入情境与文化。
8.2 引入多方法、多层次的实证研究设计
为了解决上述问题,作者主张 AI 伦理研究应更多借鉴道德心理学和社会科学中的多方法传统:既要有定量调查和行为实验,也要有定性访谈、田野调查、民族志研究等。尤其是在跨文化研究中,单纯依赖英文问卷、多项选择题,很容易误读或遗漏关键信息。例如,某些语言中可能根本不存在与“privacy(隐私)”一一对应的词,使用机械翻译的问卷很难让受访者准确理解问题。
因此,作者建议:在不同文化语境中研究 AI 伦理时,应首先通过深入访谈和开放式探索,去了解人们如何用自己的语言描述“被算法影响”的经验,如何理解“公平”“尊重”“伤害”等概念;在此基础上,再设计更贴近本地语境的调查工具。这一过程本身,就是心理现实主义与文化响应式的结合。
8.3 从“公众态度”到“制度与行为”:关注多层次主体
论文特别强调,心理现实主义并不只关心所谓“普通公众”的态度,同样要关注开发者、产品经理、法律与合规部门、政策制定者等不同主体。比如,一项研究表明,相比公司本身,人们更倾向于把 AI 出错的责任归咎于具体开发者或技术团队,这意味着在设计问责机制时不能只盯着“公司层面的责任”,也必须考虑开发团队所处的组织结构与压力环境。
同样,对于教育、培训与伦理指南的效果评估,也不能只看“是否开设了课程”或“是否有相关政策文件”,而应该通过长期追踪研究观察:团队在实际项目中是否改变了做法?哪些激励机制和组织文化有助于让伦理考量真正进入项目早期决策阶段?这些问题,都需要行为科学与组织研究的深入参与。
9. 构建“心理现实主义+文化响应”的全球 AI 伦理框架:一个理论化尝试
尽管论文本身主要是纲领性与批判性的,但我们可以在其基础上,尝试勾勒一个更系统化的理论框架,以便于技术从业者、政策制定者和研究者思考如何在实践中运用这些思想。这个框架大致可以分为三个互相关联的层次。
9.1 概念层:重新理解“伦理”的内涵与边界
在传统 AI 伦理文献中,“伦理”常常被等同于一组可列举的价值或原则,如“公平、互惠、隐私、透明”。心理现实主义视角则提醒我们:伦理不仅是“写在纸上的价值”,更是嵌入在人们直觉、情感、习惯和社会关系中的实践结构。从这个意义上讲,“伦理”既包括显性的规范,也包括隐性的期望、默会的约定与社会角色之间的义务。这些内容不能完全通过原则列表来穷尽,而需要通过实证研究去不断揭示。
同时,文化响应式也要求我们打破“单一伦理中心”的观念,不再假定某一种哲学传统(例如自由主义权利论)可以为全球所有 AI 伦理提供一套通用模板。相反,我们需要承认世界上存在多种合法的伦理语境,这些语境在评价技术时可能会给出不同优先级排序。在这种情况下,全球 AI 伦理的任务不是找到一个所有人都同意的“最小原则集合”,而是搭建一种可以容纳多元语境对话与协商的结构。
9.2 方法层:把伦理研究“嵌入”到行为与文化之中
在方法层面,这一框架主张:
第一,在设计任何 AI 伦理倡议之前,应先进行初步的心理与文化映射研究,了解目标群体对相关技术的实际认知与情感。例如,在研究 AI 助教系统的伦理问题时,不仅要问“系统是否公平评分”,还要问学生是否认为机器比人更公正,教师是否感到专业权威受到挑战,家长是否信任算法推荐的学习路径等。
第二,在评估倡议效果时,应采用多指标、多时间尺度的设计,而不是只看“是否有政策”。例如,可以结合前后对照实验、行为日志分析、访谈与焦点小组等方法,观察在引入某项伦理准则后,开发实践是否真的发生了改变。
第三,在跨文化情境中,要避免简单的“问卷横向比较”,而应充分利用民族志、参与观察等方法,理解不同社会中技术使用与道德话语的具体脉络。例如,在某些社会中,人们可能更倾向于通过非正式的关系网络解决与 AI 相关的纠纷,而不是诉诸法律或官方投诉机制,这本身就是一种值得被纳入 AI 伦理讨论的实践。
9.3 规范层:把心理现实主义纳入伦理判断与制度设计
最后,在规范层面,心理现实主义并不是要取代伦理判断,而是要为其提供更坚实的经验基础。在作者看来,一个真正负责任的 AI 伦理框架必须满足两条要求:
其一,它的原则与价值判断应在规范上经得起哲学审查(不犯明显的逻辑错误,不简单从“现实”推导“应然”);
其二,它在经验上必须考虑并回应相关主体的真实心理与文化状态,否则就会变成一套空洞的口号。
举例来说,当我们讨论是否应该给 AI 系统赋予“道德主体地位”时,规范上可以从责任归属、公平和权力结构等角度进行论证;而心理现实主义则提醒我们:不同文化和群体对“AI 是否是道德共同体成员”的直觉并不相同,有些人可能倾向于把 AI 看作“工具”,有些人则可能赋予其拟人化特质。这些差异会影响人们对 AI 的信任水平、对错误的容忍度以及对责任分配的看法。因此,在设计相应制度时,不能简单假定所有人对 AI 的看法都与某一哲学立场一致。
10. 小结:从“有牙齿的伦理”到“有血有肉的伦理”
在全球范围内,越来越多的研究者批评 AI 伦理“太软”“没牙齿”:没有法律约束、没有强制执行、没有实质性改变权力结构。Clancy 等人的这篇论文,在某种意义上则提醒我们:即便 AI 伦理拥有再多“牙齿”,如果它忽视了真实的人、真实的文化与真实的行为机制,就仍然只是一副空壳。(CoLab)
“心理现实主义+文化响应式”并不提供一套现成的监管配方,也不会给出简单的“最佳实践清单”。相反,它要求 AI 伦理学者、政策制定者和技术从业者,放下对“一次性解决方案”的期待,转而投入到艰苦的跨学科合作与长期实证研究中:在不同文化中做田野,在不同组织里做访谈,在不同项目上做跟踪,在规范反思与经验研究之间来回往返。这种路径看起来并不“高效”,却可能是我们在全球化 AI 时代避免伦理空心化、避免文化霸权的唯一现实道路。
如果把传统的 AI 伦理比作一份“写得很漂亮的指导手册”,那么这篇论文试图做的,就是把这本手册重新放回人的手中——一个个具体的开发者、用户、政策制定者和被技术深刻影响的普通人。只有在理解他们如何思考、如何感受、如何行动、如何在本地文化中生活的基础上,所谓“全球 AI 伦理”才有可能从抽象口号变成有血有肉的实践。
这篇论文的价值在于,它提醒我们:当我们谈“AI 伦理”时,不要只停留在“多讲公平、少讲歧视”这样泛泛的道德宣言,而要认真去问:具体的人在具体场景下是怎样做判断的?这些判断背后有哪些文化与心理模式?我们设计的技术和制度,到底有没有真正改变这些模式,还是只是在旧有结构上贴了一层新的标签?如果你正在做大模型治理、AI 安全、合规或政策研究,这些问题值得在每一个项目开始之前反复追问。
或许,真正“负责任”的 AI 伦理工作者,不是那个写出最多原则的人,而是那个最愿意走出办公室,走进不同文化与生活世界中倾听、观察、研究的人——也正是这篇论文所倡导的“心理现实主义、文化响应式”的实践路线。
更多推荐

所有评论(0)