——论文 Assessing Computer Science Student Attitudes Towards AI Ethics and Policy 详解


0. 写在前面:为什么要关注“CS 学生怎么看 AI 伦理与政策”

在日常舆论中,我们谈 AI 伦理与治理时,习惯从三个角度展开:一是技术公司和研发团队如何“负责任创新”,二是政府如何制定监管政策,三是普通公众如何应对 AI 带来的社会冲击。但是,恰恰有一群人常常被忽视:正在高校里学习计算机科学、机器学习和数据科学的学生。未来十到二十年中,大量关键 AI 系统将由他们设计、部署并维护,他们今天对 AI 的理解、价值判断以及对政策的态度,都会在看不见的地方折射到未来技术体系的“性格”上。

Weichert 等人发表于 2025 年的开源论文 Assessing Computer Science Student Attitudes Towards AI Ethics and Policy,正是将这群学生作为研究主体,系统地考察了他们对 AI、AI 伦理以及 AI 政策监管的态度,并通过问卷调查与半结构化访谈构建出一幅颇为细致的画像。研究基于 2024 年秋季在美国东南部一所大型公立研究型大学进行的实证调查,包含 117 份问卷与 13 个深度访谈样本,数据新鲜、方法扎实,也为我们理解“下一代 AI 从业者”的价值观提供了一个难得的窗口。


1. 理论框架:从 AI 伦理到 AI 政策,再到“AI 学习者 / 消费者”的双重角色

1.1 AI 伦理、AI 伦理学与 AI 政策:三个容易混淆的概念

论文在第二节首先做的一件事,就是厘清几个经常被混用的概念:AI 的伦理问题、作为一个子领域的“AI 伦理学”(AI ethics),以及与之紧密相连但又有所区别的“AI 政策”(AI policy)。

作者借用了 Anderson & Anderson 提出的“机器伦理(machine ethics)”传统,将 AI 伦理学(AI ethics)界定为:研究和实践如何使 AI 系统的行为与人类期望的规范和结果相一致的学科。换句话说,它关注的是“我们希望 AI 成为怎样的存在”“什么样的输出和行为是可以接受的”,以及“如何将这些道德期待翻译成系统设计与治理实践”。

而“ethics of AI”更多指的是对 AI 应该遵循哪些伦理原则、这些原则在具体场景中如何落地的哲学与规范性探讨,偏向上位的价值和原则层面;而“AI ethics”在论文中的用法,更强调一种工作框架:提供分析危害、设计干预的思维工具,可以随着技术形态、使用场景和社会预期的变化而调整。这种区分,隐含着作者的一个判断:在高度动态的 AI 现实中,僵硬的“原则列表”往往很快过时,而一个可以不断更新、聚焦“危害—干预”关系的伦理框架,反而更有生命力。

与此相比,AI 政策(AI policy)则被定义为:研究和构建治理 AI 的各种政策与规制安排的知识与实践体系。它不仅包括国家层面的法律法规、监管机制,也包括企业内部的使用政策、行业自律标准等。论文特别强调,AI 政策与 AI 伦理是“天然互补”的:前者要把后者的规范诉求转译成具体可执行的规则、流程和技术要求;后者则在不断审视这些政策的正当性与效果,两者形成一种循环互动的关系。

这三者的关系,可以用一个简化框架来理解:

  • “ethics of AI”更像是哲学与规范论;

  • “AI ethics”更像是实践导向的“伦理工程”;

  • “AI policy”则是嵌入制度与组织中的“治理工程”。

论文之所以一开始就花大量篇幅厘清这些概念,很大程度上是为了后续分析学生态度时,不只是看“喜欢或讨厌 AI”,而是分别观察他们对伦理原则、具体危害与治理路径这三重层面如何理解、如何评价自己能力。

1.2 CS 学生的双重定位:AI 学习者与 AI 消费者

论文提出了一个非常重要也非常形象的理论视角:计算机科学学生同时扮演着“AI 学习者”和“AI 消费者”两个角色

作为AI 学习者,他们在机器学习、人工智能、计算伦理等课程中学习算法原理、模型训练、数据处理和安全隐私等技术—这意味着他们比普通公众更了解 AI 的“内部结构”,有机会在课堂上接触 AI 伦理与政策的讨论。

作为AI 消费者,他们又是各类 AI 工具的重度用户:大模型聊天机器人、代码助手、写作助手、推荐系统、带自动驾驶功能的车载系统等都已经进入他们的日常生活与学习流程之中,而且很多使用行为是在课程之外、在没有教师指导的情境下自然发生的。

“学习者”与“消费者”这两个角色叠加在一起,带来一系列张力:
一方面,学生可以把课堂上学到的伦理问题和技术知识带入到实际使用场景中,反过来又把使用经验带回课堂讨论,形成一种生活与学习相互反馈的循环;
另一方面,如果课程中缺乏足够的伦理与政策讨论,那么他们对 AI 的态度就会主要在这些“不受引导的使用经验”中形成——既可能是片面的技术乐观主义,也可能是情绪化的悲观和恐惧,但无论哪一种,都缺乏系统性的反思。

论文正是基于“AI 学习者 / 消费者”这一双重定位,来设定调查问题与访谈提纲:既问他们如何用 AI,又问他们如何理解 AI 的社会影响,再进一步追问他们是否有兴趣参与 AI 政策与治理领域的工作。

1.3 与既有研究的关系:在众多“AI 态度量表”中的定位

在文献综述中,作者系统回顾了近年来大量有关“公众 / 学生对 AI 态度”的调查研究,其中包括广为引用的 GAAIS(General Attitudes towards Artificial Intelligence Scale)量表,以及针对学生群体设计的多种问卷工具。

这些研究大多围绕以下几个维度展开:

  • 对 AI 的总体情绪(兴奋 / 担忧 / 冷漠等);

  • 对特定伦理原则的看法(公平、透明、隐私、不伤害、责任等);

  • 对 AI 技术的理解程度与自我效能感;

  • 对 AI 对就业、社会关系、民主政治等的影响的预期。

论文在充分借鉴这些量表的基础上,同时明确指出现有工具的局限:
第一,多数量表侧重于“AI 的一般态度”,而非专门针对“AI 伦理与政策”这一聚焦领域;第二,很多问卷题目数量过多,不适合在课程场景中做“轻量化”测量;第三,许多量表并未把学生在伦理与政策方面的“自我能力感(self-efficacy)”纳入测量,而这对于理解未来专业实践者的角色非常关键。

因此,这项研究在设计问卷时,既保持了与 GAAIS 等量表的可比较性,又进行了针对性的扩展,比如专门加入“AI 伦理自我效能”“AI 政策关注度与职业兴趣”等维度,以及对“现在 / 未来最担心的 AI 伦理问题”的比较性提问。这使得其结果既能与公众舆论数据对照,又能为 CS 教育和 AI 治理提供更定向的洞见。


2. 研究设计:样本、问卷与访谈的结构

2.1 样本来源与基本结构

研究在 2024 年秋季学期,面向某大型公立研究型大学中所有与 AI、机器学习或计算伦理相关的 CS 课程,发起在线问卷调查。通过课程邮件、课堂口头说明以及教学平台公告等方式进行招募,最终收集到 117 份有效问卷,其中约 68% 为本科生,26% 为硕士生,6% 为博士生。这个分布与该校 CS 系整体结构相比,本科略有过采样、博士略有欠采样,但总体上仍然具有代表性。

此外,问卷结束时,研究者邀请学生自愿留下联系方式,参与后续一对一访谈。最终,有 13 名学生参与了半结构化访谈,其中本硕博不同阶段都有覆盖。访谈通过在线视频形式进行,每次约 15 分钟,围绕 AI 使用、伦理认知和政策看法展开,全部录音并转录用于后期分析。

在 CSDN 文章中,如果需要可视化呈现样本基本构成,可以设计如下表格进行总结(表格内容经过概括和格式再组织,便于读者快速浏览):

表 2-1 研究样本结构与数据来源概览(根据原文整理)

维度 描述
调查对象 某大型公立研究型大学中修读 AI / ML / CS 伦理相关课程的 CS 学生
问卷样本量 117 份(约 68% 本科,26% 硕士,6% 博士)
访谈样本量 13 人(一对一半结构化访谈,本科与研究生均有覆盖)
时间 2024 年秋季学期
数据类型 Likert 量表题(3 个主题版块),使用行为题,开放式题,访谈逐字稿
伦理审查 通过学校 IRB 审核,遵循研究伦理规范

这一设计使得研究既有足够的量化统计力量,又能通过质性材料捕捉到学生态度中更加细腻和矛盾的部分。

2.2 问卷结构:三大主题与若干关键变量

问卷整体被划分为三大部分,对应论文中的三个分析维度:
(1)一般 AI 态度(General Attitudes Towards AI)
(2)AI 伦理(AI Ethics)
(3)AI 政策与监管(AI Regulation and Policy)

每个部分包含 8 个 1–5 级 Likert 问题,用于测量态度强度;此外还穿插了一些行为和偏好相关的问题,比如使用频率、常用 AI 工具种类、最担心的伦理问题等等。问卷在设计上高度借鉴了 Kim 等人关于生成式 AI 使用的调查、Jang 等人关于学生 AI 伦理认知的研究、Ghotbi & Ho 关于“最重要伦理影响排序”的设计以及 GAAIS 量表中的若干关键陈述。

为了帮助读者整体把握问卷的逻辑结构,可以用一个紧凑的表格来概括每个板块关注的核心问题(这里并不逐题罗列,而是提炼其理论功能):

表 2-2 问卷三大板块与测量重点

板块 主要测量内容 理论指向
一般 AI 态度 对 AI 的熟悉程度、自认为理解程度、AI 对个人与社会的益处感、对生产力的影响、使用频率、常用工具类型等 学生的“技术乐观 / 悲观”与工具化使用模式
AI 伦理 认为当前 AI 工具是否“伦理”、开发者是否考虑伦理、对当前 / 未来 AI 伦理风险的担忧、自我解释偏见与危害机制的能力、课程中是否充分讨论伦理、是否有能力缓解危害等 学生对伦理风险的敏感度与伦理自我效能
AI 政策与监管 认为当前监管是否充分、政府是否平衡创新与保护、希望监管保护谁(个人用户 / 社会整体)、是否关注 AI 监管新闻、是否对 AI 政策职业感兴趣、课程是否帮助其参与政策讨论等 学生对制度治理安排的信任感与参与意愿

这种设计有几个值得注意的特征:
第一,三大板块既是并列的,又在逻辑上构成递进——从“怎么看 AI 本身”,到“怎么看 AI 的伦理问题”,再到“怎么看 AI 的制度与政策治理”;第二,量表中不仅有对现状的评价,还有对“未来”的预期,能观察到态度在时间维度上的结构差异;第三,既有“态度”问题,也有“能力感”问题,例如能否解释偏见产生、是否有信心参与政策讨论等,从而把“价值判断”与“自我定位”同时纳入分析。

2.3 访谈设计与分析策略

在质性部分,研究者设计了六个开放式访谈问题,分别围绕:对 AI 的总体看法、日常 / 课程中的 AI 使用方式、是否会思考使用 AI 的伦理后果、课程中伦理内容的体验、对 AI 政策与监管的了解及看法、是否考虑从事 AI 政策相关职业等主题展开。

访谈采用半结构化形式,即在固定主问题之外,研究者会依据受访者的回答提出追问,请对方提供更具体的例子、使用情境和感受。这种方式有利于捕捉一些问卷难以呈现的细节:比如学生如何描述自己使用 ChatGPT 解决编程作业时的心理活动、如何在“效率提升”与“学不到东西”的担忧之间权衡、如何看待课程中“说不要过度依赖 AI、但作业又用 AI 评分”的矛盾安排等等。

研究者对访谈记录进行了主题编码,归纳出了几个反复出现的主题:AI 作为生产力工具、对就业影响的复杂感受、对深度伪造与虚假信息的忧虑、课程中伦理讨论的不足与张力、对政府监管能力的怀疑、对 AI 政策职业的兴趣不足等。这些主题后来在论文的讨论部分,分别与问卷结果进行交叉印证。


3. 一般 AI 态度:高频使用下的技术乐观主义

3.1 使用频率:CS 学生处在 AI 采用的“先锋人群”

从问卷结果来看,最直观的发现之一,是 CS 学生对 AI 工具的高频使用和高度熟悉。在一般态度板块的多个题项中,超过 60% 的受访者同意或强烈同意“自己熟悉 AI”“使用 AI 对自己有帮助”“AI 有利于社会”“AI 工具提升了我的效率”等陈述,其中对“AI 熟悉度”和“生产力提升”的认同度尤其高。

在具体使用频率上,研究者用两个题项分别询问“在大学学习中的使用频率”和“在日常生活中的使用频率”,并将结果汇总为图表。根据论文的描述,约半数学生在学习中每周至少使用几次 AI 工具,约六分之一每天都在用;而在日常生活中,频繁使用的比例更高,接近四分之三的学生每周会使用几次甚至每天都会用。

与此前针对美国本科生总体的生成式 AI 使用调查相比,这一水平显著偏高。Kim 等人在 2023 年做的调查中,只有不到三分之一的学生表示“在学术场景中每周使用生成式 AI 多次”,而本研究中 CS 学生中这一比例达到六成以上。作者由此推断:在 AI 工具采用上,“CS vs 非 CS”可能比“STEM vs 非 STEM”的差异更显著,CS 学生在新型 AI 工具采用方面处于一个“前沿人群”的位置。

为了帮助读者建立直觉,我们可以用一个简化的汇总表来概括这些发现(数值为概念性描述而非精确比例):

表 3-1 CS 学生 AI 使用频率的总体特征

使用场景 低频使用(每月 1–2 次及以下) 中等频率(每周几次) 高频使用(每天或接近每天) 概括性描述
大学学习 少数 约一半 约六分之一 多数学生已把 AI 纳入学习常规工具
日常生活 少数 约四成 三分之一以上 生活场景中 AI 更像“随手可用的助手”

3.2 工具类型与“AI 工作流”:LLM 与内嵌助手的分工

在使用频率之外,问卷还询问学生使用哪些类型的 AI 工具,如大语言模型(LLM)、写作 / 编程助手、社交媒体推荐算法、自动驾驶功能等。结果显示,大语言模型和社交媒体推荐系统的使用率都超过半数,写作 / 编码助手也有相当比例;而标明“不使用任何 AI 工具”的学生非常少。

作者结合此前的试点研究提出一个颇有意思的观点:LLM 与内嵌 AI 助手其实在学生的“AI 工作流”中扮演了不同角色。LLM 更像一个开放式的“对话伙伴 + 搜索引擎 + 头脑风暴工具”,用于构思、拆解问题和理解复杂概念;内嵌助手则更偏具体任务,如自动补全代码、修订语言、实时建议改写等。这种分工在后续访谈中得到了进一步验证——许多受访学生描述自己如何“先在 ChatGPT 中理清思路,再用 Copilot 进行具体代码调试或补全”,或者“用 ChatGPT 解释概念,再用写作助手帮忙润色”。

从理论角度看,这意味着:
一方面,AI 工具已经被深度整合进 CS 学生的认知实践之中,从“解题工具”扩展到“思考与表达伙伴”;
另一方面,学生正在形成一套属于自己的“AI 工作流”,其中包含不同工具之间的分工与协同,也包含对工具输出的选择性接受与校验。这种工作流在某种意义上就是未来工程实践中“与 AI 共事”的雏形。

3.3 相对于公众的差异:更乐观、更自信,也更“工具化”

论文通过引入 GAAIS 中的经典题项“Much of society will benefit from a future full of AI”,把 CS 学生和英国公众样本进行了直接对比。统计分析结果显示,CS 学生对这句话的认同度显著高于 Schepman & Rodway 研究中的一般公众样本,且差异在非参数检验中达到高度显著水平。

换言之,CS 学生总体上对“一个充满 AI 的未来”更加乐观,更倾向于认为 AI 将为社会带来净收益。这一点与他们高频使用、感到效率显著提升的使用经验高度一致。访谈中,多数学生在被问及“AI 对社会总体是利大于弊还是弊大于利”时,都会给出“总体正面”的答案,只是在具体展开时才会谈起担忧与疑虑。

我们可以把这种态度概括为一种“工具化的技术乐观主义”:

  • 学生倾向于把 AI 看作一种可以用来节省时间、提升效率的工具;

  • 他们承认存在风险,但往往相信“技术会不断进步,很多问题会被解决”;

  • 在实际行为上,效率与便利性常常压倒伦理顾虑,成为决定是否使用 AI 的首要因素。

这种乐观主义本身并非坏事,但如果缺乏对制度环境、权力结构和非技术性风险的敏感,就可能演化为一种“只看能否帮我做事,不看背后如何运作”的态度,为后面的伦理和政策讨论埋下伏笔。


4. AI 伦理态度:技术乐观与社会忧虑之间的张力

4.1 “AI 是否伦理”与“开发者是否在乎伦理”:两个不同的问题

在 AI 伦理板块中,问卷包含两个看似类似但含义不同的陈述:
一是“总体上,我认为现有的 AI 工具是有伦理的”;
二是“我相信大多数 AI 工具开发者在设计系统时会认真考虑伦理问题”。

结果显示,第二个陈述的分歧明显更大:认为“现有 AI 工具总体上是伦理的”的学生明显多于持反对意见的;而在评估“开发者是否考虑伦理”时,赞同与反对的比例几乎相当。

这透露出一个微妙但重要的信息:

  • 学生整体上对“工具本身”的伦理状态评价相对温和甚至偏正面;

  • 但在评价“开发者是否主动承担伦理责任”时,怀疑和不信任的情绪明显上升。

换句话说,他们感受到 AI 工具目前并不“完全失控”,但并不确信背后的开发组织真的把伦理当成优先事项。这种“对结果尚可接受、对动机保持怀疑”的态度,与现实中围绕大公司 AI 产品的争议高度契合,也说明学生在信息环境中已经接触到不少关于数据滥用、算法偏见和不透明商业决策的讨论。

4.2 他们担心什么:从“深度伪造和隐私”到“情感操控与失业”

问卷中的两个关键问题要求学生分别在“当前”和“未来”两个时间点上,从一组潜在风险中选出自己最担心的伦理影响。选项包括:深度伪造与虚假信息、数据隐私、偏见与歧视、情绪操控、就业替代、财富不平等等。

结果显示,在“当前”时间点上,深度伪造 / 虚假信息和数据隐私是最受关注的两类问题;但是当问题转换为“未来最担心的风险”时,这两项的重要性反而下降,而就业替代、对人类情绪和行为的影响以及不平等加剧则显著抬头。

作者据此提出一个颇为具有解释力的假设:学生实际上在区分两类不同性质的风险——
一类是他们认为可以通过技术改进解决或缓解的“技术问题”,例如深度伪造可以通过检测算法来识别、数据隐私可以通过差分隐私、联邦学习等方案来加强保护;
另一类则是他们认为难以简单用技术修补的“社会问题”,例如工作岗位的结构性变化、情绪操控带来的心理影响、由 AI 引发的财富不平等等,这些都牵涉到制度安排、权力结构和社会文化,远非单一技术方案能够解决。

在访谈中,这种区分也以更生活化的方式出现:很多学生一方面承认“假新闻、深度伪造确实可怕”,但会补上一句“将来应该会有更好的检测工具”;另一方面,在谈论就业和工作性质改变时,则更多带着不确定甚至焦虑,担心“自己毕业后找工作是否会更难”“有哪些岗位会被替代,哪些会增长”。

从理论上看,这意味着:

  • 学生对“技术问题”保有一种强烈的“可解决性信念”:相信通过更多研发、更多监管和检测工具,深度伪造和隐私泄露等问题可以得到程度不等的控制;

  • 但对于“社会结构性问题”,他们更多是“承认严重性但缺乏行动路径”的状态,只能以担忧和猜测的方式表达,而缺乏相应的政策工具认知与参与意愿。

4.3 伦理自我效能:知道偏见如何产生,但不知道如何缓解

另一个关键发现与学生的自我伦理能力感有关。问卷中有一个题项询问他们是否有信心向不了解 AI 的人解释“AI 如何做出有偏见或有害的决定”,结果显示,近九成学生表示赞同;而另一个关于“是否认为课程让自己具备缓解 AI 造成潜在危害的能力”的题项中,赞同比例明显下降,只有约三分之二的学生表示有信心,还有不少选择中立甚至不同意。

这表明,在这些 CS 学生看来,“看懂问题”和“有能力解决问题”之间存在一个明显的差距
他们觉得自己已经足够理解 AI 模型偏见如何产生、训练数据如何带来歧视性结果、模型输出为何可能伤害特定群体;
但是,当问题变成“如何设计系统 / 流程以减少这些危害”时,他们并不确信已有训练能支撑自己做出负责任的技术选择或制度设计。

这种“理解—行动”之间的落差,恰恰是很多 AI 伦理课程难以跨越的障碍:如果课程更多是“讲故事与案例”,而缺乏与算法设计、数据处理和系统架构紧密结合的“伦理工程实践”,学生就很难把伦理要求内化为具体的工程决策标准。

4.4 课堂中的伦理教育:集中式课程与分散融入的拉扯

论文还通过问卷和访谈了解学生对课程中 AI 伦理内容的体验。量化结果显示,超过 60% 的学生认可课程中对 AI 伦理的关注“足够多”,但在“是否为自己准备好应对 AI 危害”这一题上,仍有相当一部分学生表示中立或不同意。

访谈材料则透露出更多矛盾感受:

  • 一部分学生认为学校在开设独立的计算机伦理课程,将 AI 作为一个重要专题来讨论,是非常必要的,这让他们“开始从不同角度审视自己每天用的技术”;

  • 另一部分学生觉得伦理内容在整个培养方案中占比过高,甚至觉得“被迫上太多伦理课”;

  • 还有学生指出,在很多技术课程中,伦理问题仍然“被扔到最后一讲”,而不是贯穿在算法和系统讨论之中。

这种分歧并不意外:对一些学生而言,伦理讨论是“强行插入”的额外负担;对另一些学生而言,伦理讨论是帮助他们理解技术与社会关系的关键环节。真正的挑战在于:如何在有限的课时与学生注意力资源下,设计一种既不流于形式,又能深度嵌入技术细节的伦理教育模式。


5. AI 政策与监管态度:强烈支持监管,却对参与治理缺乏兴趣

5.1 对现状的评价:监管不足与政府“平衡能力”的怀疑

在 AI 政策板块中,学生被问到是否同意“当前 AI 技术已经被政府充分监管”“美国政府在推动创新和保护用户之间做得很好”等陈述。结果显示,多数学生不同意“监管已足够”,近半数学生对政府在“促进创新—保护用户”之间的平衡持否定态度。

这说明:

  • 大多数 CS 学生认为当前的 AI 制度环境“监管不足”,存在明显的缺口;

  • 他们对政府是否有能力在鼓励 AI 发展与防止滥用之间实现良好平衡持怀疑态度。

在访谈中,这种怀疑感进一步表现为一种对政治过程的整体不信任:部分学生直言不讳地表示“不认为政府有足够专业知识来监管 AI”,也有人提到即便有法律法规,企业仍然有大量规避和违规操作空间,对实际效果并不乐观。

从理论上看,这里形成了一个有意思的张力:

  • 一方面,学生普遍认同“需要更多监管”,在价值层面支持加强对 AI 的社会控制;

  • 另一方面,他们对“谁来监管、如何监管”缺乏信心,尤其对政府的专业能力和执行力存疑。

这种“规范期待很高、媒介信任很低”的状态,对后续政策制定与人才培养都提出了挑战。

5.2 关注度与知识水平:强烈意见背后是有限的信息基础

尽管多数学生对“是否需要更多监管”有鲜明立场,但问卷中关于“是否经常关注政府对 AI 的监管新闻”的题项却显示:只有约 40% 的学生表示自己会经常关注相关新闻,剩下大多数人并不密切追踪政策动态。

访谈进一步揭示了这种“意见强烈但信息有限”的状况:不少学生在被问及当前有哪些 AI 监管举措时明显感到不确定,只能笼统提到“听说有一些法案、行政命令之类的”,对具体条款、执行机构和争议点并不清楚。有学生坦言,如果让自己和同学就 AI 监管展开深入对话,“可能聊不了几分钟”,因为缺乏必要的信息储备。

这表明,很多学生对政策问题的态度更多是基于一般性价值判断而非细致的制度理解:他们觉得“应该管一管”,也觉得“政府好像不太行”,但缺乏将这些直觉转化为具体政策主张的知识和能力。对于希望培养“既懂技术又懂治理”的复合型人才的高校来说,这种缺口具有直接的指向性。

5.3 职业兴趣:懂得政策重要,却不想自己进入政策领域

问卷中有两个关联紧密的题项,一是“是否对 AI 政策领域的工作感兴趣”,二是“课程是否让自己有足够准备与他人讨论 AI 政策与监管”。结果显示:对 AI 政策职业有明确兴趣的学生比例约为三分之一,认为课程为自己准备好参与政策讨论的学生则不到一半。

访谈中,这种“兴趣有限”被表述得更为直接:

  • 多数学生承认 AI 政策非常重要,也认为技术人员参与政策制定很有价值;

  • 但当被问到“你愿不愿意自己去做这件事”时,很多人表现出明显的退缩,原因包括:不喜欢政治、厌恶与人“拉票”和说服、觉得政策工作很挫败、担心看不到实际效果等。

这形成了一种典型的“他者化”结构:

  • 学生会说“政策需要更多懂技术的人”;

  • 但他们心里设想的那个“懂技术的政策人”,通常不是自己。

这不仅揭示了技术文化与政治文化之间的心理距离,也在某种程度上暴露了当前 CS 教育中“技术导向”的强烈单一倾向:学生被训练得习惯解决明确的问题、追求可证的成果,而政策领域的争论性、价值冲突与长期性,往往让他们感到迷茫和挫败。


6. 访谈中的细腻图景:从使用场景到伦理—行为裂缝

6.1 真实使用场景:编程助手、类搜索引擎与写作伙伴

半结构化访谈为我们提供了大量关于学生如何在真实情境中使用 AI 的细节:

  • 在编程任务上,学生经常用 ChatGPT 或 Copilot 帮自己理清作业要求、规划工作流程,甚至在遇到 bug 时直接把代码和错误信息丢给 AI,请求调试建议;

  • 在写作任务中,学生用 LLM 帮助头脑风暴、搭建提纲、润色语言,但普遍会强调“最后还是要自己写”;

  • 在理解复杂概念时,有的学生会把课堂上听不懂的部分“倒给 LLM”,让它用更通俗的方式讲解。

另外一个高频主题是把 LLM 当作“增强版搜索引擎”:
不少学生表示自己“越来越少用传统搜索引擎”,因为在他们看来,LLM 能够更直接地给出结构化答案,而不需要在一堆网页中筛选。从“搜结果”到“搜答案”的转变,正在潜移默化地重塑他们获取知识与验证信息的习惯。

这些场景共同勾勒出一个趋势:AI 正在成为 CS 学生日常学习活动中的基础设施式存在。它不再只是“特殊场景才会打开的工具”,而是渗透在从阅读理解、代码实现到写作表达等多个环节的工作流中。

6.2 伦理反思与实际行为:知道有问题,但还是要用

访谈中最值得注意的,也许是学生在伦理反思与实际行为之间的分裂:
很多学生在谈到 AI 时,会主动提到偏见、虚假信息、知识产权、环境成本等问题,有些甚至因为了解到大模型训练的能源消耗而刻意减少使用;
但同时,不少学生又坦言这些担忧对自己日常使用行为影响有限——“知道有问题,但还是会用,因为实在太好用了”。

有的学生会采取一些“自我保护策略”,比如只把 AI 用在不涉及学术诚信的场景、在用 AI 写代码后一定自己重写一遍、使用 AI 给出的文献建议后再用官方数据库核对等;也有人则干脆承认效率收益远远压倒伦理顾虑,甚至表示“不会因为伦理问题而刻意选择不用 AI”。

这揭示了一个非常现实的现象:

  • 伦理关切确实存在,但更多停留在“知道”“意识到”的层面;

  • 真正能改变行为的是权重足够高的因素,比如效率、成绩、时间压力、就业竞争等;

  • 如果制度环境中没有明确的激励或约束机制,单靠道德说服很难改变日常使用习惯。

6.3 课程中的 AI 伦理:收效有限还是启蒙关键?

在谈到课程中的伦理内容时,学生的评价也呈现出复杂而矛盾的面貌:
一部分学生认为伦理课程让自己“更警惕 AI”,不再盲目信任工具;
另一部分则觉得“课程讲的道理都对,但跟自己做事的方式没有太大关系”,甚至会质疑“在一边告诫不要过度依赖 AI 的课上,老师又用 AI 工具给作业打分”的矛盾。

这其实反映出伦理教育在落地时常见的一个困境:

  • 如果伦理讨论与课程中的具体技术实践脱节,就容易变成“抽象的大道理”;

  • 如果课程本身又在大量使用 AI 工具辅助教学和评分,而没有清晰解释这个选择背后的权衡,就会在学生心里留下“说一套、做一套”的印象。

对课程设计者来说,这意味着伦理与政策内容不能只是摆在教学大纲中“补一个模块”,而应当在作业机制、评分方式、课堂实践等具体环节中体现出连贯的价值逻辑。

6.4 对 AI 监管讨论的陌生感:有态度,但缺少语言与信息

当谈到 AI 监管与政策时,访谈中的学生普遍表现出一种“态度强烈但话不多”的状态:

  • 他们往往能迅速表达“监管很重要”“应该有人管一管”;

  • 但当被追问“应该怎么管”“你觉得现在有哪些具体政策”“哪些方向应该优先”,对话就很快变得空泛,甚至中止。

这说明,学生缺的不是“观点”,而是可操作的概念框架与事实信息
他们需要了解有哪些现有的 AI 治理工具(标准、审计、责任划分、透明度要求等),需要知道当前的法律争议点和政策实验,需要有机会在课程中通过案例讨论体验“用制度语言组织自己的看法”。

如果这些环节缺位,就很难指望 CS 学生在毕业后主动走向治理和政策领域,或者在技术开发岗位上自觉考虑制度与责任问题。


7. 对 CS 教育与 AI 治理的理论启示:从“理解 AI”到“治理 AI”

7.1 能力层次框架:理解、识别危害、缓解危害、参与治理

综合问卷和访谈结果,论文在讨论中实际上隐含构造了一个关于 CS 学生能力层次的框架:

  1. 理解层面:多数学生认为自己能够解释 AI 的基本工作原理,对常见模型和应用场景有较清晰认知;

  2. 识别危害层面:他们能够识别并描述偏见、虚假信息、隐私泄露等伦理问题,并对其严重性有一定判断;

  3. 缓解危害层面:在如何调整模型、数据和系统设计以减少这些问题的层面,学生的自信心明显下降;

  4. 参与治理层面:在与政策制定、法规执行和社会讨论相关的层面,学生普遍缺乏知识储备和参与意愿。

这种层次结构对 CS 教育的启示非常直接:如果培养目标只是停留在前两个层次,那么当学生进入职场后,最多只能成为“知道问题但并不负责解决问题”的技术工人;只有当课程系统性地介入第三、第四层次,提供伦理工程实践和政策参与的机会,学生才有可能成长为能够“参与 AI 治理”的专业人士。

7.2 从“技术问题”到“制度问题”:教学内容的重构思路

学生在“当前—未来”风险评估中的差异,显示出他们对“技术问题可被技术解决、社会问题则更棘手”的直觉区分。这为课程设计提供了一个切入点:

在讲解偏见、深度伪造、隐私、环境成本等具体问题时,教师完全可以同时展开两个层面:

  • 一方面介绍现有的技术解决方案,如差分隐私、可解释模型、鲁棒检测算法、绿色模型训练等,帮助学生看到“工程层面能做什么”;

  • 另一方面则引导学生讨论这些技术方案的边界、实施成本与权力关系,帮助他们理解为什么有些问题即便有技术工具仍然得不到充分解决,从而看到“制度层面必须做什么”。

换言之,AI 伦理教学不应该把“社会问题”完全外包给“政策领域”,而应当在技术课程中承认并正视这些问题,让学生意识到:

  • 即使你只是一个系统设计者,你的选择也在默默参与制度形成;

  • 即使有监管与审计,技术方案的可实施性也严重依赖工程实践;

  • 伦理与制度不是“外加约束”,而是工程设计空间中的一部分。

7.3 “AI 作为制度性事实”:重新定位 CS 学生的社会角色

论文中提出的“AI 学习者 / 消费者”双重角色,其实可以延伸出第三重身份:AI 制度参与者

CS 学生不只是用 AI 的人,也不仅是写 AI 代码的人,他们还是未来 AI 治理结构的一部分——无论是否愿意,他们都将参与到“哪些功能可以上线、哪些行为需要审计、哪些风险可以接受、哪些责任需要承担”的集体博弈之中。

如果在培养阶段就把学生当作潜在的“制度参与者”,那么课程设计就必须:

  • 不仅教他们如何“让模型变得更准”,也要教他们如何“判断一项应用是否应该存在”;

  • 不仅训练他们优化指标,也要训练他们识别这些指标背后隐含的价值偏向;

  • 不仅鼓励他们关心薪资与岗位,也要鼓励他们思考技术在社会中的位置与后果。

从这个意义上讲,这篇论文可以被理解为一个“镜子”:它让我们看到当前 CS 学生在 AI 伦理与政策上的真实状态——高度拥抱 AI、愿意承认风险、深度融入工具使用工作流,却在责任归属与制度参与上显得犹豫和疏离。要改变这一点,单靠几门“伦理课”远远不够,整个培养体系都需要对“什么叫合格的计算机科学家”进行重新想象。


8. 小结:这项研究真正告诉我们的是什么

综上所述,Assessing Computer Science Student Attitudes Towards AI Ethics and Policy 这篇论文所提供的,远不止是一些“多少百分比的学生支持监管”之类的统计数字,它更重要的贡献在于:

第一,通过精心设计的问卷和访谈,构建出一幅细致的 CS 学生 AI 态度画像:他们高度熟悉并频繁使用 AI 工具,相比公众更加乐观,更相信 AI 能提升个人和社会的效率;

第二,在伦理维度上,他们既能够识别偏见、深度伪造、隐私泄露等具体问题,也在一定程度上意识到就业、情绪操控和不平等等结构性风险,但在“缓解这些风险”的能力感上明显不足;

第三,在政策维度上,他们普遍认为当前监管不足,支持加强对 AI 的社会控制,却对政府专业能力存疑,对政策职业参与意愿较低,呈现出“期待高、信任低、参与少”的三重张力;

第四,论文通过“AI 学习者 / 消费者”的双重角色视角,指出 CS 学生的态度是在课堂与日常使用经验的张力中形成的,而当前课程体系在伦理和政策层面给他们提供的支持仍然有限,难以让他们成长为积极主动的 AI 治理参与者。

对于希望在 CSDN 上进行技术与伦理交叉写作的读者来说,这篇研究提供了一个很好的范例:
如何在不脱离数据和实证的前提下,讨论 AI 技术发展背后的人与制度;
如何在面对“工具性收益极其明显”的情境时,仍然坚持追问责任、权力和公平的问题。

如果你正在参与或即将参与 AI 相关课程的设计、教学,或者你本身就是一名 CS 学生,那么不妨把这篇论文当作一次“自我体检”:
在文中的那些态度与矛盾中,你看到了多少自己的影子?
在“理解 AI—识别危害—缓解危害—参与治理”的能力阶梯上,你现在停在第几级?
而你希望未来的自己,站在怎样的位置?

这些问题的答案,也许才是这篇论文最重要的“开放问题”。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐