《AI未来进行式》读书笔记
解答 “AI 将如何重塑人类社会” 的核心命题,既不夸大 AI 的 “威胁性”,也不忽视技术带来的冲击,帮助读者在 “科幻场景” 中理解 AI 的技术边界、应用潜力与伦理风险,建立对未来的理性认知。
部分内容可能来自网络或者由AI生成。
如有雷同,纯属巧合,仅供学习参考之用。
一、书籍核心定位
-
本质属性:融合科幻叙事与技术预判的 “AI 未来全景指南”,通过 10 个虚构但贴合现实的故事,将抽象的 AI 技术趋势(如通用人工智能、脑机接口、生成式 AI)转化为具象场景,兼具想象力与科学性,打破 “技术科普 = 枯燥理论” 的壁垒。
-
核心价值:解答 “AI 将如何重塑人类社会” 的核心命题,既不夸大 AI 的 “威胁性”,也不忽视技术带来的冲击,帮助读者在 “科幻场景” 中理解 AI 的技术边界、应用潜力与伦理风险,建立对未来的理性认知。
-
内容特色:采用 “故事 + 解析” 的双线结构 —— 每个科幻故事聚焦一个 AI 核心应用领域(如医疗、教育、工作、社交),后续附上技术解读与趋势预判,引用大量前沿 AI 研究成果与行业案例,平衡 “趣味性” 与 “专业性”。
-
作者背景:李开复(AI 领域顶尖学者、从业者)与陈楸帆(科幻作家)跨界合作,前者保障技术逻辑的严谨性,后者赋予内容叙事张力,让 “硬核技术” 变得通俗易懂、引人深思。
-
适用人群:关注科技发展的普通读者、AI 行业从业者、创业者、政策制定者,尤其适合希望 “提前感知 AI 未来”、避免被技术变革淘汰的人群。
二、贯穿全书的核心 AI 发展观
1. AI 的进化路径:从 “专用” 到 “通用”,但非 “替代人类”
-
核心预判:AI 的发展将遵循 “弱 AI→强 AI→超 AI” 的阶梯式进化,但超 AI(具备自我意识、超越人类智能)在未来 30-50 年内难以实现,当前及中期(20-30 年)的核心趋势是 “通用人工智能(AGI)的初步落地”—— 即 AI 能跨领域解决复杂问题,而非局限于单一任务(如当前的 ChatGPT、自动驾驶)。
-
关键认知:AI 的本质是 “工具的升级”,而非 “人类的替代品”。书中用 “汽车比人跑得快,但不会替代人” 的比喻,强调 AI 的核心价值是 “放大人类能力”(如医生用 AI 辅助诊断、设计师用 AI 生成灵感),而非取代人类的 “情感、创造力、道德判断” 等核心特质。
-
未来核心关系:“人机共生”—— 人类负责 “设定目标、提供价值判断、创造灵感”,AI 负责 “数据处理、重复劳动、高效执行”,形成 “1+1>2” 的协作模式。
2. AI 变革的底层逻辑:“数据 + 算法 + 算力” 的三重驱动
-
数据是基础:AI 的智能源于数据的喂养,未来数据将成为 “核心生产资料”,但数据隐私与数据安全将成为关键矛盾(如书中 “个性化教育 AI” 收集学生隐私数据的争议);
-
算法是核心:生成式 AI(如 GPT、Midjourney)的爆发,本质是 “Transformer 架构 + 大模型训练” 的突破,未来算法将向 “更高效、更节能、更具可解释性” 进化(当前 AI 的 “黑箱问题” 将逐步被解决);
-
算力是支撑:AI 大模型的训练需要海量算力,未来算力将向 “分布式、低成本、绿色化” 发展,边缘计算(如终端设备本地 AI)将成为重要补充,减少对云端算力的依赖。
3. AI 发展的两大核心矛盾
-
矛盾一:技术进步与伦理规范的 “时差”——AI 技术的迭代速度远超政策、法律、伦理的制定速度,导致 “技术先行、规则滞后”(如深度伪造、AI 诈骗、就业替代等问题);
-
矛盾二:效率提升与人文价值的 “平衡”——AI 追求 “高效、理性、最优解”,但人类社会需要 “情感、温度、包容”,过度依赖 AI 可能导致人文关怀的缺失(如书中 “AI 伴侣” 带来的情感异化问题)。
三、未来 AI 应用场景推演(书中核心故事解析)
1. 医疗健康:“精准化 + 普惠化” 的医疗革命
-
核心场景:AI 辅助诊断(通过医学影像、基因数据快速识别疾病)、个性化治疗方案(根据患者体质、基因特征生成专属疗法)、远程医疗 AI(让偏远地区患者获得顶级医疗资源);
-
技术支撑:计算机视觉(医学影像分析)、大语言模型(解读病历、药物研发)、基因测序 AI(精准匹配病因);
-
关键争议:医疗责任界定(AI 诊断失误,责任在医生、技术公司还是患者?)、医疗数据隐私(患者基因数据被滥用的风险);
-
未来趋势:书中预判,2035 年左右,AI 将成为医生的 “标配助手”,全球重大疾病(如癌症、心脏病)的误诊率将降低 50%,医疗资源分配不均的问题将得到显著缓解。
2. 教育领域:“个性化 + 终身化” 的学习变革
-
核心场景:AI 私教(根据学生的学习节奏、兴趣爱好定制课程)、沉浸式学习(VR+AI 打造虚拟学习场景,如 “穿越” 到历史现场学习)、终身学习平台(AI 根据职场人的需求,实时推送学习内容);
-
技术支撑:推荐算法(个性化课程匹配)、自然语言处理(AI 答疑、互动教学)、虚拟现实(VR/AR 沉浸式体验);
-
关键争议:教育公平(富人能享受更优质的 AI 教育资源,是否加剧教育鸿沟?)、学生创造力的扼杀(过度依赖 AI 答案,导致独立思考能力下降);
-
未来趋势:学校将从 “知识传授” 转向 “能力培养”(如创造力、协作力、道德判断),AI 承担 “知识背诵、习题讲解” 等重复任务,教师成为 “学习引导者、情感陪伴者”。
3. 工作与就业:“替代 + 创造” 的职业重构
-
核心场景:AI 自动化办公(处理文档、数据分析、客户沟通等重复工作)、AI 辅助创作(设计师、文案、程序员用 AI 生成初稿)、新型职业诞生(AI 训练师、AI 伦理顾问、人机协作协调师);
-
技术支撑:生成式 AI(内容创作)、机器人流程自动化(RPA,办公自动化)、人机交互技术(语音、手势控制);
-
关键争议:就业替代(低技能、重复性工作被 AI 取代,如何安置失业人群?)、职业技能迭代压力(人类需要不断学习新技能,避免被 AI 淘汰);
-
未来趋势:书中提出 “AI 替代 20% 的现有工作,但创造 30% 的新工作”,核心竞争力将从 “知识储备” 转向 “跨领域协作、创造力、情感沟通” 等 AI 难以替代的能力。
4. 社交与情感:“连接 + 异化” 的情感革命
-
核心场景:AI 伴侣(满足情感陪伴需求,如孤独老人的 AI 陪护、年轻人的虚拟恋人)、AI 社交助手(帮助社交恐惧者拓展人脉、优化沟通)、虚拟社交空间(AI 打造的元宇宙社交场景);
-
技术支撑:情感计算(AI 识别人类情绪)、自然语言生成(AI 模拟人类对话)、元宇宙技术(虚拟场景构建);
-
关键争议:情感异化(人类过度依赖 AI 情感陪伴,导致真实人际关系退化)、伦理边界(AI 伴侣是否应具备 “人格”?能否结婚?);
-
未来趋势:AI 将成为 “社交辅助工具” 而非 “替代者”,真实人际关系依然是人类情感需求的核心,AI 的作用是 “降低社交门槛”,而非取代 “面对面的情感连接”。
5. 城市与生活:“智能化 + 绿色化” 的智慧城市
-
核心场景:AI 交通调度(缓解拥堵、优化路线)、智能能源管理(AI 调节电网负荷、推广可再生能源)、AI 安防(实时监测安全隐患,如火灾、犯罪);
-
技术支撑:物联网(设备互联互通)、大数据分析(城市运行数据处理)、强化学习(AI 优化调度方案);
-
关键争议:隐私泄露(城市布满 AI 传感器,人类是否处于 “全天候监控” 中?)、算法歧视(AI 调度是否存在 “偏袒”,如优先保障富人区的资源?);
-
未来趋势:2040 年左右,全球将出现一批 “AI 原生城市”,城市运行效率提升 30%,碳排放降低 40%,但需要建立 “智慧城市治理规则”,平衡效率与隐私。
四、AI 技术的伦理争议与解决方案
1. 核心伦理争议
| 争议领域 | 典型问题 | 书中观点 |
|---|---|---|
| 数据隐私 | AI 过度收集个人数据(如消费习惯、健康信息、位置轨迹) | 应建立 “数据最小化原则”——AI 仅收集必要数据,且数据所有权归用户,企业需获得明确授权才能使用 |
| 算法公平 | AI 存在歧视(如招聘 AI 歧视女性、贷款 AI 歧视低收入人群) | 算法需要 “可解释性”,政府应出台算法审查机制,要求企业公开算法逻辑,避免隐性歧视 |
| 责任界定 | AI 造成伤害(如自动驾驶撞人、AI 诊断失误) | 建立 “人机共担责任” 机制 —— 开发者负责技术安全,使用者负责合理操作,政府负责监管兜底 |
| 情感伦理 | AI 伴侣、AI 生成虚假信息(深度伪造) | 禁止 AI 模拟 “真实人类” 进行欺诈,AI 产品需明确标注 “非人类”,避免情感误导 |
| 就业冲击 | 大量低技能工作被替代,失业人群如何安置? | 政府应推广 “终身教育体系”“普惠性技能培训”,企业需承担社会责任(如裁员后提供转岗培训),探索 “全民基本收入(UBI)” 试点 |
2. 书中提出的解决方案
-
政府层面:制定全球统一的 AI 伦理准则(如禁止 AI 用于大规模杀伤性武器)、建立 AI 监管机构(审查高风险 AI 产品)、完善法律法规(明确 AI 相关的责任、隐私、数据权属问题);
-
企业层面:践行 “负责任的 AI”(将伦理融入 AI 设计,如 “以人为本”“可解释、可控制”)、公开 AI 发展进度(避免技术垄断)、投入资源解决 AI 带来的社会问题(如就业培训);
-
个人层面:培养 “AI 素养”(了解 AI 的技术边界与风险)、保持终身学习(提升 AI 难以替代的能力)、理性看待 AI(不盲目崇拜,也不过度恐惧)。
五、人类应对 AI 未来的核心策略
1. 个人层面:打造 “不可替代的核心竞争力”
-
能力培养:聚焦 “创造力”(如艺术创作、创新思维)、“情感能力”(如沟通、共情、领导力)、“跨领域协作能力”(AI 擅长单一领域,人类擅长整合资源);
-
心态调整:从 “恐惧被 AI 替代” 转向 “利用 AI 提升自己”,将 AI 视为 “工具” 而非 “对手”,学会 “人机协作”(如用 ChatGPT 辅助工作、用 AI 工具提升学习效率);
-
终身学习:建立 “碎片化 + 系统化” 的学习习惯,关注 AI 发展趋势,及时补充新技能(如 AI 相关的基础知识、数据分析能力)。
2. 企业层面:抓住 “AI 转型的红利期”
-
业务升级:用 AI 优化核心流程(如生产、营销、客户服务),降低成本、提升效率;
-
创新探索:基于 AI 开发新产品 / 服务(如 AI 医疗设备、AI 教育平台),开拓新市场;
-
责任担当:重视 AI 伦理,避免因技术滥用引发社会问题,同时为员工提供 AI 转型培训,帮助其适应新工作模式。
3. 社会层面:构建 “人机共生的良性生态”
-
教育改革:调整教育体系,从 “知识灌输” 转向 “能力培养”,增加 AI 素养、伦理道德、创新思维等课程;
-
政策保障:完善社会保障体系(如失业救济、医疗保障),缓解 AI 带来的社会冲击;
-
全球协作:AI 是全球性技术,需要各国共同制定规则,避免 “技术竞赛” 导致的伦理失控(如禁止 AI 武器、规范数据跨境流动)。
六、核心收获与感悟
-
AI 的未来不是 “非黑即白”:书中既展现了 AI 带来的便利(医疗普惠、效率提升),也不回避其风险(伦理争议、就业冲击),提醒我们 “技术本身没有善恶,关键在于人类如何使用”;
-
“人机共生” 是必然趋势:未来不是 “AI 统治人类”,也不是 “人类对抗 AI”,而是 “人类与 AI 协同进化”,核心是找到 “技术进步” 与 “人文关怀” 的平衡点;
-
主动适应比被动恐惧更重要:AI 带来的变革不可逆转,与其担心被替代,不如主动学习、提升核心竞争力,成为 “能驾驭 AI 的人” 而非 “被 AI 淘汰的人”;
-
伦理是 AI 发展的 “底线”:没有伦理约束的 AI 可能带来灾难性后果,政府、企业、个人都需要承担起责任,让 AI 在 “规则框架内” 发展,真正服务于人类福祉。
七、关键金句摘录(书中核心观点浓缩)
-
“AI 的终极目标不是替代人类,而是让人类从重复劳动中解放出来,去追求更有价值、更有意义的事情。”
-
“未来的核心竞争力,是‘人类 + AI’的协作能力,而非单纯的人类能力或 AI 能力。”
-
“技术进步的速度永远超过人类的适应速度,但人类的优势在于‘学习与进化’—— 这是刻在我们基因里的能力。”
-
“AI 能解决‘怎么做’的问题,但解决不了‘为什么做’的问题 —— 后者需要人类的价值判断与人文关怀。”
-
“预测未来最好的方式,是参与创造未来 —— 面对 AI,我们不是旁观者,而是参与者、塑造者。”
————书籍摘要————
序一 AI的真实故事
◆ “人工智能 Artificial Intelligence,AI
◆ AI是对人类学习过程的阐释,对人类思维过程的量化,对人类行为的澄清,以及对人类智能边界的探索。AI将是人类认识自我这一历程的‘最后一公里’
◆ AI的巨大转折发生在2016年。那一年,由总部位于伦敦的AI创业公司DeepMind开发的AlphaGo程序,在谷歌DeepMind围棋挑战赛中以4∶1的总比分击败了围棋世界冠军
◆ AI还将通过高效的运算,接管一些重复性的工作,把人类从忙碌而繁重的日常工作中解放出来,让人类节省最宝贵的时间资源,得以做更多振奋人心的、富有挑战性的工作。最后,人类将与AI达成人机协作,AI负责定量分析、成果优化和重复性工作,人类按其所长贡献自己的创造力、策略思维、复杂技艺、热情和爱心。
◆ 按传统定义,达利特在四大种姓之外,又称“贱民”,是“不可接触者”,他们通常从事最肮脏的工作——徒手清洁下水道、处理动物死尸、鞣制皮革以及一些被认为会“污染”其他印度教徒的事情。
印度教社会有四大种姓,分别是婆罗门、刹帝利、吠舍和首陀罗。
1、婆罗门:婆罗门是祭司和学者阶层,负责宗教仪式和祭祀活动。他们被视为最受尊敬和崇高的种姓,掌握着神权和解释经典的权利。尽管他们不直接掌握政治权力,但在精神和文化领域具有极高的权威。
2、刹帝利:刹帝利是战士和统治者阶层,包括国王、将军和官吏。他们负责保卫国家、维持秩序,并供养婆罗门进行祭祀活动。刹帝利在军事和政治上拥有实权,是印度的统治阶级之一
3、吠舍:吠舍是商人和农民阶层,负责生产和贸易。他们向神庙上供,向国家纳税,并受上两种姓的统治及压迫。吠舍的经济地位相对稳定,是社会的中坚力量。
4、首陀罗:首陀罗是服务者和劳工阶层,从事各种卑微的工作,如农民、仆人、工匠等。他们处于社会的最底层,通常没有权利参加宗教仪式,且婚姻受到严格限制,只能与同种姓的人结婚。
什么是深度学习
◆ 受人类大脑内部复杂的神经元网络的启发,深度学习模拟生物神经网络,构建出包括输入层和输出层在内的人工神经网络,当将数据输入该网络的输入层后,在输出层就会显现出相应的处理结果。
◆ 给人工神经网络的输入层“投喂”大量数据样本,同时给输出层“投喂”相应的“正确答案”,通过这样的训练,不断优化人工神经网络的内部参数,使根据输入生成最接近“正确答案”的输出的概率最高。
◆ 可以将深度学习视为解决目标函数最大化问题的一种数学运算。
深度学习:能力惊人但也力有不逮
◆ 如果把算力比作AI的引擎,那么数据就是AI的燃料,直到最近10年,算力才变得足够高效,数据才变得足够丰富
深度学习带来的问题
◆ 第一个问题是,深度学习会使AI比你更了解你自己。
◆ 如果人们对AI的个性化推荐上瘾,这类应用程序就可能缩窄人们的视野、扭曲事实的真相、加剧社会的分化,对人类的情绪、心理健康、幸福感等方面造成负面影响。
◆ 那么如何激励企业让步做正确的事情呢?一种方法是制定法规,对某些伤害人类福祉的行为给予处罚;另一种方法是对企业承担社会责任的行为进行评价
◆ 还有一种方法是建立第三方监管机构,监督企业对技术是否有不当使用,例如追踪产品中出现虚假新闻的比例
◆ 最后,特别困难但又特别有效的一种方法是,确保AI技术持有者的利益与每个用户的利益达成100%的一致(参见第九章《幸福岛》)。
◆ 深度学习所带来的第二个问题,就是会使不公平和偏见得以延续
◆ 因此,我们需要全力以赴应对AI的公平性问题和偏见问题。第一,使用AI的公司应该披露AI系统被用在哪里以及使用目的。第二,AI工程师应该接受一套职业道德准则的培训——类似医学生宣誓用的“希波克拉底誓言
◆ 第三,工程师使用的AI训练工具应该嵌入严格的测试机制,以对基于样本比例不公平的数据训练出来的计算模型发出警告或彻底禁止生成模型。第四,应该制定AI审计法。
◆ 深度学习的第三个问题,就是它的不可解释性。
◆ 人们目前正在进行许多相关的研究,这些研究试图简化、总结AI复杂的逻辑过程,或者发明具有可解释性框架的AI算法,从而使AI变得更加“透明”。
计算机视觉的基础——卷积神经网络(CNN)
◆ 与大脑皮层的功能网络架构类似,卷积神经网络的架构也有等级之分。每一层滤波器输出的特征置信度都将成为下一层滤波器的输入,用于提取更复杂的特征
生成式对抗网络
◆ Deepfake换脸术建立在一种名为生成式对抗网络(GAN)的技术基础之上。顾名思义,GAN是由一对互相对抗(博弈)的网络组成的深度学习神经网络。
◆ 生成式网络会根据判别式网络的反馈,重新进行自我训练,努力让损失函数最小化,即缩小真实图片与合成图片之间的差异,朝着下一次能够成功愚弄判别式网络的目标迈进
◆ 经过数百万次这样的“对抗”之后,生成式网络和判别式网络的能力会不断提升,直至最终达到平衡。
生物特征识别
◆ 包括人脸识别、步态识别、手/手指几何学识别、手势识别,以及涉及语音语义及情感计算的说者识别、脉搏识别等。
◆ 目前,虹膜识别是被大众认可的最为精准的生物特征识别方法。虹膜识别是在红外线的照射下捕捉并记录一个人的虹膜信息,然后将其与预先存储的虹膜特征进行比对。
AI安全
◆ 还有一种攻击AI系统的方法是对数据“下毒”:攻击者通过“污染”训练数据、训练模型或训练过程,来破坏AI系统的学习过程。
自然语言处理(NLP)
◆ AI研究的核心目的,是希望计算机拥有与人类一样的智慧和能力
◆ AI发展史上著名的“图灵测试”,就是把利用自然语言进行交流的能力当作判断机器是否已达到拟人化“智能”的关键指标——如果机器在对话交流中做到成功地让人类误认为它也是“人类”,就意味着机器通过了图灵测试。
有监督的NLP
◆ “有监督”意味着在AI模型的学习阶段,每一次输入时都要提供相应的正确答案。
自监督的NLP
◆ 所谓自监督,就是在训练NLP模型时,无须人工标注输入、输出数据,从而打破了我们刚刚讨论的有监督学习的技术瓶颈。这种自监督学习方法名为“序列转导”(Sequence Transduction)。
◆ Transformer
◆ GPT-3可以说是OpenAI最令人兴奋的研究成果,它有一个巨大的序列转导引擎,建立了一个庞大的神经网络模型来学习分析语言,这个模型几乎覆盖了所有我们能够想象得到的概念。
NLP应用平台
◆ 除搭建对话式AI系统外,NLP平台还可能成为下一代搜索引擎,回答人们提出的任何问题。
教育领域的AI
◆ 对于喜欢篮球的学生来说,很多数学题目都可以被NLP算法重新编写成篮球运动场景中的问题,为枯燥的学习过程增添个体性的趣味。
◆ 第一个重要角色是做学生的个性化人生导师。人类教师有着机器所无法取代的人性光芒,能够理解学生的心理及情绪
◆ 人类教师的第二个重要角色是对AI导师、AI伙伴的工作进行前瞻性的规划及指导,定义下一个阶段的目标,以便进一步满足学生的需求,甚至主动探索学生在未来可能出现的新需求,帮助学生拓展发展领域
AI与精准医疗及诊断:让人类活得更加健康长寿
◆ 精准医疗,指依据患者的个人实际情况,为其定制最适宜的治疗方案,而非盲目使用某种重磅药物。
◆ 多年后,可能大多数医生,会从亲自诊疗转向审阅AI系统的诊疗结果;他们的工作重心,将更多地放在给予患者更多的同理心和关怀上,放在与患者进行更多的沟通与交流上。
机器人技术
◆ 精准复刻人类的视觉、运动和操控能力是机器人技术的基础
什么是元宇宙
◆ 元宇宙(Metaverse)的概念起源于美国作家尼尔·斯蒂芬森于1992年出版的科幻小说《雪崩》,书中描述的是一个和现实世界平行但又紧密联系的超现实主义的三维数字虚拟空间,
◆ Roblox的首席执行官巴斯祖奇认为,元宇宙有八大特征,分别是身份、朋友、沉浸感、低延迟、多元化、随时随地、经济系统和文明。
什么是XR(AR/VR/MR)
AR、VR和MR是当前科技领域中广受关注的三种现实增强技术,它们在许多领域有着广泛的应用。
AR(增强现实)
增强现实是通过计算机技术将虚拟信息叠加到真实世界中,使用户能够感知到虚实结合的场景。例如,通过智能手机或头戴设备,用户可以在现实环境中看到虚拟的导航、标识、角色等。AR技术广泛应用于游戏、教育、导航等领域。
VR(虚拟现实)
虚拟现实是通过计算机技术生成一个与真实世界完全不同的三维虚拟环境,让用户能够沉浸到其中。用户通常通过头戴设备或全息投影进入虚拟的游戏、电影、教育等场景。VR技术的发展推动了许多领域的创新,包括游戏、医疗、军事训练等。
MR(混合现实)
混合现实是将真实世界和虚拟世界融合在一起,让用户能够在真实环境中与虚拟物体进行交互。例如,通过头戴设备或透明屏幕,用户可以在现实环境中操控虚拟的工具、模型、人物等。MR技术结合了AR和VR的特点,强调现实与虚拟的混合互动体验。
XR(扩展现实)
扩展现实是一个包含AR、VR、MR所有形式的泛指概念,表示对真实世界的任何形式的扩展或增强。XR技术通过各种设备或平台,实现了不同程度的现实与虚拟的结合,被广泛应用于元宇宙、智慧营销、工业4.0等领域。
◆ 沉浸感是XR技术的重要特点之一,也就是让人感到身临其境,很难分清楚“境”里面的真与伪。想要达到这样的境界,技术就必须“愚弄”人类最敏锐的感觉——视觉。
◆ 另外,气味发射器和味觉模拟器也将陆续问世,是XR技术能够全方位覆盖人类的六种感官[实际上是5种,因为我们恐怕无法模拟人类的第六感⸺超感官知觉(ESP)]。
XR技术的两大挑战:裸眼显示和脑机接口
◆ 如果说裸眼是XR最自然的信息“输出”接口,那么最自然的信息“输入”方式就必定是脑机接口(BCI)了。2020年,埃隆·马斯克创立的Neuralink公
XR技术普及背后的伦理道德和社会问题
◆ XR将使人们重新定义生命。
自动驾驶
◆ 国际自动机工程师学会(SAE International)根据AI参与驾驶的程度,将自动驾驶从L0到L5一共划分为六个等级(Level),具体如下。
◆ L0 (“无自动化”的人工驾驶):人类驾驶员承担所有的驾驶任务,AI会观测道路并在必要时提醒驾驶员。
L1 (“人类不能放手”的辅助驾驶):在人类驾驶员的允许下,AI可以完成特定的驾驶操作,如转向。
L2 (“人类放手”的部分自动驾驶):AI可以承担多项驾驶任务,如转向、刹车、加速,但人类驾驶员仍然需要监控驾驶环境,并在必要时接管车辆。
L3 (“人类移开视线”的有条件自动驾驶):AI可以承担大部分驾驶任务,但需要人类驾驶员在AI遇到无法处理的情况并发出请求时接管车辆(有一些人对L3持怀疑态度,认为人类驾驶员突然接管车辆会增加危险发生的可能性,而不是降低风险)。
L4 (“人类放松大脑”的高度自动驾驶):AI可以在整个行车过程中完全接管车辆,但前提是车辆处于AI能够完全理解其状况并处理其问题的环境中,如被高精度地图覆盖的城市路面或者高速公路。
L5 (“不再需要方向盘”的完全自动驾驶):无论车辆处于何种环境,都不再需要人类驾驶员参与驾驶操作。
更具象地说,我们可以把从L0到L3的自动驾驶想象成一辆新车的附加功能,相当于人类驾驶员多了一种AI工具,不过,它对未来交通变革的作用有限。
◆ 从L4开始,车辆开始拥有自己的“大脑”,这将对人类的交通产生革命性的深远影响。可以想象,在未来,L4自动驾驶巴士会按照固定路线往返运送乘客;L5自动驾驶出租车能够让乘客通过打车软件(如“滴滴出行”)进行呼叫,而且很快到位。
L5自动驾驶车辆将带来的影响
◆ 也许从禁止在高速公路上驾驶车辆开始,最终人类将被法律禁止在所有公共道路上驾驶车辆,到那时,爱车人士可能不得不像马术爱好者一样,只有去私人娱乐区域或者赛车场,才能摸到方向盘。
阻碍L5自动驾驶的非技术性难题
◆ 只有明确责任归属,才能围绕责任归属建立新的行业规则。
◆ 是善是恶,不在于技术本身,而在于操控技术的人。
量子计算
◆ 传统计算机的最小信息单位是比特(bit),它的值或者是1,或者是0,就像一个开关一样。我们现在用的每一个应用程序、网页、图片,都是由成千上万个这种传统比特组成的。用这种二进制的比特构建、控制计算机相对比较容易,但它在解决真正复杂的计算机科学难题方面潜力有限
◆ 量子计算机的信息存储和运算使用的则是量子比特
◆ 量子纠缠指两个量子比特无论相距多远,都会保持联系——一个量子比特的状态发生变化会影响另一个量子比特,就好比一对存在心电感应的双胞胎。
◆ 由于存在退相干误差,每个逻辑量子比特都需要额外的多个物理量子比特来进行纠错,以确保整个系统的稳定性和容错率达标
什么是自主武器
◆ 自主武器被视为继火药、核武器之后的“第三次战争革命”。虽然地雷和导弹揭开了早期简单自主武器的序幕
AI取代人类员工背后的潜在危机
◆ 失业人数上升会导致岗位竞争加剧,蓝领和白领的薪资可能因此被压缩。然而,与此同时,AI算法却有可能帮助科技巨头在更短的时间内获得更多的收益,造就更多的亿万富翁,于是收入和财富不平等的问题会愈演愈烈。
从事哪些工作的人不容易被AI取代
◆ 第一,创造力。AI不具备进行创造、构思以及战略性规划的能力。
◆ 第二,同理心。AI没有“同情”“关爱”之类的“感同身受”的感觉,无法在情感方面实现与人类的真正互动,无法给他人带去关怀。
◆ 第三,灵活性。AI和机器人技术无法完成一些精确而复杂的体力工作,如灵巧的手眼协作。此外,AI还难以很好地应对未知的或非结构化的空间,并在其中执行工作任务,尤其是它观察不到的空间。
如何化解AI时代的人类工作危机
◆ 我建议把“3R”作为人类应对AI经济变革的途径,即二次学习(Relearn)、二次定义(Recalibrate)和二次复兴(Renaissance)
◆ 二次定义
◆ 除了重新学习职业技能,我们还需要结合各类AI工具,重新调整工作岗位的“人机协作”模式。因此,对于不少职业的工作方式乃至
◆ 当我们对一些职业进行二次定义,充分把“以人为本”的人性特质和AI善于优化的技术优势深度结合起来之后,许多工作将被重塑,不少新兴岗位也将被创造出来。
◆ 有了得当的培训和称心的工具,我们可以期待又一次“文艺复兴”的到来——由AI催生的人类释放激情、创造力迸发、人性升华的新高峰。
◆ AI技术可以给人类带来幸福吗?
◆ 其次是衡量标准的问题。“幸福”是一个抽象、主观而且千人千面的概念。如何量化人类的幸福感,然后对这个“虚无缥缈”的概念进行衡量?就算能够衡量,我们又该如何利用AI来提升幸福感?
如何利用AI衡量和提升幸福感
◆ 人类的心理状态是由脑电波、大脑组织结构以及身体内的化学成分(激素)这三部分协同决定的
三者的协同模型
- 层级关系:
• 结构层(大脑组织)提供硬件支持;
• 动态层(脑电波)反映实时神经活动;
• 化学层(激素)调节长期生理状态。- 交互实例:
• 压力反应:外界压力→激活交感神经(β波增强)→释放肾上腺素→肌肉紧张、焦虑情绪;
• 冥想放松:专注呼吸→α波增加→激活副交感神经→降低皮质醇、提升内啡肽→平静感。
大脑组织结构决定了心理功能的潜力,脑电波动态表征意识状态,激素系统则通过化学信号放大或抑制特定心理反应。三者形成“结构-电活动-化学调控”的闭环,共同塑造人类的心理体验。例如,抑郁症患者可能同时存在前额叶功能异常(结构)、α波减少(脑电活动)和血清素水平低下(化学)。
谁值得我们信赖并有资格存储我们所有的数据
◆ 最可靠的“可信AI”持有者,应该是一个没有商业化营利目的的实体,只有这样的实体,才会毫无保留地把用户的利益放在优先位置。
可再生能源革命:太阳能+风能+电池技术的有效结合
◆ 通过实施“太阳能+风能+电池技术”的可再生能源组合方案,我们将获得100%的清洁能源。改用这种清洁能源,将减少50%以上的全球温室气体排放量,而温室气体正是导致全球气候变暖的罪魁祸首。
材料革命:走向无限供给
◆ 人类惯用的昂贵、有限或有毒的化合物,将逐渐被自然界中丰富的原材料取代,例如提供能量的光子、用于生物合成的分子、构造材料的原子、代表信息的比特/量子比特、用于半导体的硅,等等。
丰饶时代的货币制度
◆ 在这个世界里,“被退休”的年轻人享有舒适的生活,勤劳肯干的员工有机会学习新的技能,有爱好的人可以尽情追逐自己的梦想,真心待人的护理人员可以把爱心传播到更多、更远的地方。
◆ 有能力的人能够赢得他人的尊重,有梦想的人能够改变世界。
丰饶时代之后,会是奇点时代吗
◆ 奇点就是AI全面赶超人类智能的时刻,并且AI将从人类的手中攫取对这个世界的控制权。
AI的故事会迎来一个圆满的结局吗
◆ 在人类与AI的故事中,我们不能只做被动的旁观者。相反,我们每一个人都应该是故事的撰写者。我们每一个人都需要在关键的价值理念上做出抉择,而我们所创造的未来,就是这些自我实现的价值理念的具体呈现。
更多推荐



所有评论(0)