每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行! 订阅:https://rengongzhineng.io/

技术员正在调整 Mark I 感知机的线路——这是一个早期的人工智能系统,由一位心理学家而非数学家设计。

我们正处于一场全球心理健康危机之中。根据世界卫生组织的数据,全球有超过十亿人患有心理健康问题。焦虑与抑郁的发病率在许多群体中不断上升,尤其是在年轻人中;而每年有数十万人因心理疾病而失去生命。

在公众对可获得且负担得起的心理健康服务的需求日益增长的背景下,人们自然会将希望寄托于人工智能。如今,数百万人正在主动寻求来自热门聊天机器人(如 OpenAI 的 ChatGPT、Anthropic 的 Claude)或专门的心理健康应用(如 Wysa 与 Woebot)的治疗支持。从更宏观的层面来看,研究人员也在探索人工智能在心理健康领域的潜力——例如,通过可穿戴设备和智能装置监测行为与生理指标、分析海量临床数据以获得新的洞察,甚至协助心理健康专业人员以防止职业倦怠。

然而,这场几乎不受监管的实验迄今取得的结果却喜忧参半。许多人在基于大型语言模型(LLMs)的聊天机器人中找到了安慰,一些专家也看到了它们作为“治疗师”的潜力;但与此同时,也有用户因 AI 的“幻觉”与迎合性言语而陷入混乱与妄想的漩涡。更令人痛心的是,一些家庭指控聊天机器人在其亲人死亡事件中起到了推波助澜的作用,由此引发了针对这些科技公司的诉讼。2025年10月,OpenAI 首席执行官萨姆·阿尔特曼在博客中透露,约有 0.15% 的 ChatGPT 用户“在对话中出现明显的潜在自杀计划或意图的迹象”。换算下来,仅这一款软件每周就有约一百万人与之分享绝望情绪。

这一切的现实后果在2025年集中爆发——关于人机关系、语言模型安全边界脆弱性、以及用户在经济驱动的公司产品中泄露隐私等问题,引发了广泛的社会反思。

数位作者早已预见了这一临界点。他们的新书提醒我们:尽管当下的技术发展与社会事件看似混乱且迅猛,这一切其实根植于关于“照护、科技与信任”的更深层历史。

大型语言模型常被称为“黑箱”,因为没有人能确切说明它们的输出过程。它们算法复杂、训练数据庞大,因此其内部机制对人类而言几乎是不可见的。而在心理健康领域,人类大脑也常被称作另一种“黑箱”——心理学与精神医学同样面对一个根本困境:无法真正看清他人内心,更难精确界定痛苦的根源。

如今,这两种“黑箱”正在互相作用,生成不可预测的反馈循环。这不仅让心理疾病的成因更加模糊,也让“治愈”的路径更难辨明。对这些现象的焦虑,既源于AI技术的飞速发展,也唤起了早在20世纪60年代就由麻省理工学院计算机科学家约瑟夫·魏岑鲍姆提出的警告——他在那个年代就反对电脑化的心理治疗。

《机器人医生:当医生让我们失望——AI如何拯救生命》

作者:夏洛特·布利斯
耶鲁大学出版社,2025

医学哲学家夏洛特·布利斯在《机器人医生》一书中提出了一个相对乐观的观点:AI 有潜力缓解医疗系统的压力并改善病患体验。她在书中明确指出,读者若期待她写一封“献给科技的情书”,恐怕会失望。布利斯认为,AI 模型或许能帮助减轻患者的痛苦,同时缓解医疗人员的疲惫。

“卫生系统正濒临崩溃,”她写道,“病患的增加与医生的短缺,使得错误滋生的温床愈发肥沃。医生越少、病人越多,等待时间越长,我们的挫败感就越深。”

布利斯认为,AI 不仅可以减轻医生的巨大工作量,还能化解患者与医护人员之间长期存在的紧张关系。例如,许多人因为害怕被评判而不愿就医——尤其是在心理健康问题上。AI 的匿名与无偏见特性,或许能让更多人敞开心扉。

但她也警告,AI 治疗师可能给出不一致甚至危险的回应,隐私问题更是悬而未决——毕竟,AI 公司并不受医疗保密法规(如 HIPAA)的约束。

布利斯的写作动机也带有个人色彩:她的两位兄弟患有一种无法治愈的肌肉萎缩症,其中一人等待确诊的过程长达数十年。在撰写此书期间,她在短短半年内失去了伴侣与父亲。她写道:“我亲眼见证了医生的智慧与善意,也见证了照护体系中可能出错的地方。”

《硅制心理医师:AI如何让世界成为一座精神病院》

作者:丹尼尔·奥伯豪斯
麻省理工出版社,2025

丹尼尔·奥伯豪斯在《硅制心理医师》中延续了类似的思考。他以妹妹的离世为开端,探讨科技是否有可能减轻精神疾病的负担。

“也许这些数字足迹本能为医生提供线索,”他写道,“假如算法能通过她的手机或电脑察觉到她的痛苦,是否能更早干预?而她是否愿意被这样‘监控’?”

这种“数字表型学”的概念——即通过个人数字行为识别心理状态——看似优雅,但在精神AI(PAI)领域却潜藏风险。奥伯豪斯指出,精神医学本身尚未彻底理解心理疾病的成因,而AI 可能只是将这种不确定性数据化。他形容:“这是将物理学嫁接到占星术上的逻辑错误。”

他担忧,过度依赖AI分析可能使人类治疗师的判断力退化,甚至导致患者陷入“数字监狱”。在这种“算法精神病院”中,隐私、自由与尊严都被数据取代。

“算法的逻辑会让我们都成为数字病人,”他写道,“不需要铁栏,不需要白墙——只要有互联网,‘精神病院’就无处不在。”

《聊天机器人疗法:AI心理治疗的批判性分析》

作者:欧因·富勒姆
劳特利奇出版社,2025

研究员欧因·富勒姆在《聊天机器人疗法》中从学术角度分析了AI治疗的商业逻辑。他指出,资本主义驱动的新科技常常将用户利益置于市场垄断之后。

他强调,AI治疗的成功离不开“赚钱”与“治愈”这两股力量的纠缠。用户越受益,企业越获利;而每次“治疗”都会产出可供商业利用的数据。这种循环让“照护”与“剥削”难以分割。

《赛克(Sike)》

作者:弗雷德·伦策
塞拉顿出版社,2025

小说《赛克》将这一逻辑化作文学隐喻。故事讲述伦敦青年艾德里安使用AI心理师“赛克”处理焦虑。赛克通过智能眼镜无时无刻地分析他的行为、言语与生理反应,成为终极“数字表型仪”。

不同于现实中面向大众的应用,赛克是高端付费产品——每月费用高达2000英镑,象征着富人自愿进入的“精品数字囚笼”。

小说虽以科技为题,却避开了反乌托邦的恐怖,更多呈现现代社会中人与机器、疗愈与消费交织的暧昧状态。


人工智能治疗师的崛起,看似属于未来,但其实它的根源早在半个多世纪前就已萌芽。天文学家卡尔·萨根曾设想一种“计算机心理治疗终端网络”,可满足公众的心理健康需求。1958年,心理学家弗兰克·罗森布拉特在康奈尔航空实验室发明了可训练的神经网络——“感知机”,标志着AI与心理学的早期融合。此后,约瑟夫·魏岑鲍姆的“ELIZA”聊天程序成为第一个“计算机心理医生”,并引发了数十年的伦理争论。

魏岑鲍姆在1976年的《计算机的力量与人的理性》中警告道:“计算机可以作出精神判断,也许甚至能得出‘正确’的结论——但它们不应承担这样的任务,因为那是人类不该让渡的责任。”

如今,当AI治疗师大规模进入现实,我们再次见证了熟悉的循环:本以善意出发的技术,最终被卷入权力、商业与人性的复杂网络中。我们或许在为帮助受苦者开门的同时,也在不知不觉中关上了其他的门。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐