部分内容可能来自网络或者由AI生成。
如有雷同,纯属巧合,仅供学习参考之用。


————书籍摘要————

《对话尤瓦尔·赫拉利:当AI开始向人类提问时,我们就已经输了(轻观察)》

◆ 赫拉利认为:懂得管理事物的人听从那些懂得管理人的人类所发布的命令——前者需要事实,而后者需要故事。在他看来,这一现实也预示了AI时代的风险。

◆ 在大多数情况下,你既需要真相,也需要秩序,但是真相是从属于秩序的。科学家——擅长真相的人,从擅长讲故事的人那里接收命令。而那些故事可能是彻底的想象和虚构。

◆ 信息不等于真相。大多数信息是虚构、幻想和谎言。作为比喻,不要把以下数字太当回事,但在所有信息中,真相可能只占5%,大部分是虚构和幻想。原因很明显。

◆ 第一个原因如你所说:真相很复杂,而虚构很简单。了解量子物理学的真相非常复杂,而虚构则简单得多。人们偏好简单而非复杂。

◆ 真相昂贵,虚构廉价。如果你想了解物理、生物、历史的真相,你需要投入时间、金钱和精力收集证据、分析它、核实事实,太昂贵了。虚构则简单,你只需写下脑海中浮现的东西,不需要投资金钱和精力研究。

◆ 在完全自由市场中,如果一切只由供需决定,市场会立即崩溃,变成强盗窝,大家互相掠夺,无法互信

◆ 我想最好的办法是放慢速度。与其试图设计AI,不如建立一种关系,让我们在共同进化中互相学习,在通用人工智能到来前有足够时间纠正错误。如果只有五年时间,而我们现在有一套规则,犯错后就来不及改变,这行不通。但如果有50年的时间共同进化,就可以尝试、互动、纠错,机会更大。

◆ 问题是我们没有50年。因为人与人之间的不信任,我们陷入了AI竞赛,每个人——公司领导、政治家——都说:“是的,这很危险,我们应该放慢速度。但我们不能,因为其他公司、国家没有放慢。如果我们放慢而他们不放慢,他们将赢得竞赛,统治世界。”

◆ 10—20年后仍有用的技能?学编程?学开车?”我的建议是不要专注于有限的一组技能,因为你无法预测未来。需要广泛的技能,最重要的是终身保持变化和学习的能力。思维灵活性可能是最重要的,当然也是最难培养的。

《万字赏析 :DeepSeek R1 是怎样炼成的?(轻科技)》

◆ 推理模型的本质是让模型自己构建CoT,并将前面推理的步骤展示出来。虽然你也可以自己手动编写CoT,但问题是:我们能否对每一个问题都写出完整的CoT呢?

◆ 模型的结构约束越少(less structure),当计算资源增加时,最终性能的上限就越高。反之,如果在早期给模型加入过多结构约束,它的最终表现可能会受到限制,失去了更多自主探索的可能性。

◆ “All in All我们就是要训练模型能够像我们人一样思考,自由的思考!”

◆ 简而言之,R1 Zero只做了三件事情:一个基础的训练模板,一个简单的激励模型,以GRP策略。

◆ 训练过程中,只给了问题、答案和规则。横轴是RL的迭代次数,竖轴是响应的长度。他们发现模型学着学着,自己把答案越吐越长了。激励模型里,我们没有激励过长度这件事情,只判断了对错和你有没有思考

◆ 我们用了R1 Zero生成了右侧那个高质量的SFT数据,也就是cold start数据,这些数据由R1 Zero输出的高质量带有推理过程的数据,作为cold start数据重新去SFT了Deepseek V3 base模型。

◆ 第一个checkpoint是用R1 Zero的高质量cold start数据进行SFT,完成了一个fine-tuning。然后,他们拿着这个checkpoint去做了一轮类似R1 Zero的强化学习。但这次有一些不同。除了激励准确度和格式,但他们加入了一个新的激励项——一致性(consistency)。

◆ 为它的推理过程是语言统一的。
最后,他们通过人工筛选和规则匹配等方式,剔除了一些冗余、可读性差部分,得到了一个经过筛选和优化的高质量CoT数据。

◆ 还向全世界证明了一个事实:用通过一个超大size高质量的推理模型产生的数据进行SFT的成本非常低,与传统的预训练方法相比。它让现有模型的表现拔地而起,不用做RL。

◆ 现在我们来看一下DeepSeekMoE的优势。MoE是混合专家模型(Mixture of Experts)的缩写。简单来说,MoE解决了一个关键问题:当模型规模变得越来越大时,训练难度也会显著增加。

◆ MoE也可以类比为医院的分诊台。在过去,医院的所有病人都必须先找全科医生,效率很低

◆ DeepSeek在这方面也有创新,之前分诊的或许只是一个完全没有医学知识的“保安”,而他们用的是一个有医学知识的“本科生”来处理分流任务。

◆ DeepSeek还引入了共享专家(shared experts)的概念,图片里绿色的部分,每一层shared experts一定会被激活。有些通用的能力会被共享。

◆ 他们还设计了一个粗暴但实用的router算法,也做了一个极致的跨节点通信效率方案,使用了NVIDIA收购的InfiniBand和NVLin

◆ 而MLA是用时间换空间。训练时虽然多花时间,把一个本来是m*n的矩阵直接压缩成了一个一维的lora,压缩率非常高。这样推理的时候KV比别人小,这样承载的上下文就会变多。不仅压缩尺寸承载更多推理,而且在测试中,发现相比MHA智力性能没有下降,反倒有提升

◆ 接下来是MTP(Multi-Token Prediction),这是一个非常有趣的概念,Peak花了不少时间才把我讲懂。MTP,即多Token预测,其目的是让模型在推理时看得更远一点。大家知道Transformer采用的是单Token预测(Next Token Prediction),即每次只预测下一个Token。

◆ 具体而言,虽然某个Token在当前上下文下的概率最高、最优,但如果模型仅基于局部信息作出选择,可能会导致下一个Token以及更远的Token预测不佳。而如果模型能够看到更长远的影响,它便可以在训练过程中优化整体策略,从而变得更加智能。这便是MTP训练的基本原理,它本质上是让模型具备更强的远期规划能力。

◆ 整个V2的DeepSeek MoE,包括V3后的框架实现,都是为了降低运算量和通信带宽,以便能在他们的显卡上完成这些实验。

◆ 第一,我认为R1突破的基础是真正的实力。它的性能确实非常强大,不需要过多的解释,用过的人都知道。懂的都懂。

◆ 第二,它解决了困扰整个行业的难题。大家都在为PRM、MCTS各种卷、各种失败、各种苦恼,它跳出来说不用这么痛苦

◆ 第一,他们通过蒸馏实验证明了高质量的reasoning CoT能够激发现有模型的能力。

《2小时思想碰撞,10000字深度思考:人类会被AI淘汰吗?(轻科技)》

◆ AI平权由两个方面组成:第一是接入AI的权利平等,第二是从AI的使用中获利的平等。

◆ 科学技术的发展,包括人工智能,并不会必然带来权利、权力的平等;只有与具体的制度相结合,才能实现预期的效果。

◆ 但是,当技术普及时,可能会出现“马太效应”——资源最终会集中在少数头部人物手中。

◆ 一方面是开源模型显著降低了技术的成本,使更多的C端和B端客户可以直接参与其中。 另一方面是,开源模型降低了创新的门槛。很多原本需要大量投入的研发工作,借助开源模型,创新者可以本地部署技术并加以调整,从而实现自己的创新成果。

◆ 我的个人感受是,这种现象确实符合“马太效应”,强者越强,弱者越弱

◆ 相反,如果你是一个科研工作者,尤其是那些原本理论知识很强,但编程能力较弱的人,AI的帮助就能显著提高他们的工作效率。

◆ 第一个是AI能做的,人能否做得更好。如果你写文章跟DeepSeek一个水平,那肯定就没有机会了。另外一个就是AI做不了的部分,人能不能做。AI毕竟不是人,涉及情感与社交的工作还是要由人来完成。

◆ 不管是ChatGPT还是DeepSeek,它就像使用计算器,计算器用得好不会成为一个人真正的竞争优势,因为没有谁的数学能力是靠计算器来决定的。

◆ 工具只是辅助,而真正的竞争力来自你如何掌握和驾驭它,成为一个能独立思考、创造的人

◆ 当所有人都可以使用大模型的时候,它本质上和计算器就没有区别。

◆ 现如今的教育不是要培养我们成为一个“奴隶小孩”,而是要培养我们成为像苏格拉底那样,具有引导思考、深度理解能力的个体,这种能力比单纯掌握知识更加重要。

◆ 至于文科是否还有存在的必要,我个人认为文科教育仍然有它独特的价值,尤其是在情感教育和社会互动方面,AI难以完全替代人类的情感共鸣和社交能力。

◆ 文科的角色并不仅是与AI配合,而是提供了一种批判性思维和深度分析的工具,帮助我们理解AI生成的内容及其对社会的影响。

◆ 我更担心的不是机器人取代人类,而是人类越来越像机器,天赋逐渐被削弱。所以在教育中运用AI工具,提升学生利用AI工具能力的同时,一定要注意如何激发他们的天赋、保持他们的创造力,而不是产生抑制效应

◆ 我一直把人和AI的关系比作一起经营公司,你可以选择成为甩手掌柜,但这样做可能会带来很大风险。更好的做法是保持控股权,至少你能把握公司的方向,即使失败也是自己决定的。

◆ AI并不是一个有意识的个体,它只是通过统计学和算法进行推算。我们总是习惯性地把AI拟人化,这就导致了对它的过度担忧和不必要的焦虑。

◆ 如果你能理解GPT的工作原理,了解Transformer的机制,了解神经网络的概念,就不会再害怕它。例如,了解DeepSeek是一个多专家系统架构后,你会发现它并不是完美的,它的组合有时不太好,精度降低时会出现更多“幻觉”。

◆ 在学习方面,我建议将学习分为四个层次:学工具、学知识、学能力、学做人,不能让技术抹去人类的本性。对我们来说,最可怕的不是AI变成人,而是人变成了

◆ 所谓AI平权,现阶段反应的只是起点的平权,而从蒸汽机到埃尼阿克再到移动互联网,技术的发展一再说明:“马太效应”不会缺席——资源最终会集中在少数头部人物手中,但这并不意味着大众享受不到技术进步带来的红利。

◆ 一定程度上说,使用AI和使用计算器,并没有本质的区别——计算器用得好,不会成为一个人真正的竞争优势,人的价值与竞争力,来自如何掌握和驾驭技术。

《MCP很好,但它不是万灵药(轻科技)》

◆ MCP 指的是Model Context Protocol(模型上下文协议)。令人意外的是,一个协议系统的热度,甚至盖过了OpenAI发布的最新模型,成为行业讨论的焦点。

◆ 什么是MCP?MCP是一种开放的技术协议,旨在标准化大型语言模型(LLM)与外部工具和服务的交互方式

◆ 在MCP出现之前,AI工具调用面临两大痛点:第一是接口碎片化:每个LLM使用不同的指令格式,每个工具API也有独特的数据结构,开发者需要为每个组合编写定制化连接代码;第二是开发低效:这种“一对一翻译”模式成本高昂且难以扩展,就像为每个外国客户雇用专属翻译。

◆ 而MCP则采用了一种通用语言格式(JSON - RPC),一次学习就能与所有支持这种协议的工具进行交流。

◆ MCP的技术架构可以简单理解为一个由三个核心部分组成的系统:MCP Host、MCP Client和MCP Server。

◆ 这个比喻中,用户扮演着企业高管的角色,负责理解用户需求并做出最终决策。大模型(如Claude或GPT)理解高管的指令,规划任务步骤,判断何时需要使用哪些外部服务,并最终整合信息为高管提供答案。Agent系统则是真正的私人助理或执行秘书去执行,而MCP则像是秘书使用的标准化通信平台或企业服务接入系统,它不做决策,只负责按照秘书的指示,以统一的格式和协议与各种服务提供商交流。

◆ Function Call是大型语言模型(LLM)与外部工具或API交互的核心机制。它是大模型的一个基础能力,就是识别什么时候要工具,可能需要啥类型的工具的能力。

◆ MCP不是要取代Function Call,而是要在Function Call基础上,联合Agent一起去完成复杂任务

◆ 大模型通过FunctionCall表达,我要调用什么工具,Agent遵循指令执行工具的调用,而MCP则是提供了一种统一的工具调用规范。

◆ 如果选了多个MCP服务,其中重名,描述相似的工具太多,Agent不知道选哪个,也没有排名。只能一个个试,很浪费token,也效率很低。

◆ 但MCP市场当前的混乱状态并非失败的标志,而是任何新兴技术生态系统必经的成长阶段。

◆ MCP本质上只是一套“工具插座”的标准规范,它的使命是确保插头能顺利插入,而非决定用哪个电器、怎么使用电器。

◆ 更全面的方案可能需要结合像Agent to Agents(A2A)这样的架构,通过抽象层次提高任务规划和工具选择的效率

《解构Manus AI:是通用Agent革命,还是精巧缝合怪?(轻科技)》

◆ 一个合格的Agent需要三大核心能力作为其“大脑”中枢:
1.Planning(规划):如同一位棋手,能将复杂局面分解为一系列精妙的子步骤
2.Tool use(工具使用):宛如工匠,懂得从工具箱中选取最合适的工具并熟练使用
3.Memory(记忆):既有短期记忆存储即时信息,又有长期记忆沉淀持久知识

◆ 2024年11月25日:Anthropic开源了划时代的“模型上下文协议”(MCP),这是一把打开数据世界的万能钥匙

◆ 过去常用的数据和功能的调用方式Function call(函数调用),最大的问题就是用API的时候,需要为每个功能进行额外开发。

《6000字,有关DeepSeek、科技竞争、AGI的一切(轻科技)》

◆ AI指的是人工智能(Artificial Intelligence),现在它已逐渐转变为智能体或代理智能(Agentic Intelligence)

◆ 未来,这个词的含义还可能转变为自主智能(Autonomous Intelligence),成为新AI,

◆ OpenAI采用的是SFT(监督微调)路线,依赖人工标注大量数据,通过概率模型生成内容,它的创新之处在于通过大量人工工作和高成本积累这些成果。

◆ 对于AI来说,有三大要素需要分析:大模型、算力和数据。

◆ 应该将这个概念转变为“DeAgent is law”(智能体即法律),即通过去中心化的网络和Agent来实现自主管理和法律管理。

◆ 原始社会技术进步的周期是以10万年为单位;农耕社会以千年为单位;工业社会技术进步周期长则百年,短则十年;互联网时代以30年—10年为单位;进入到人工智能时代,它的速度更加难以想象地加快

◆ DeepSeek V3主要具备高性能、高效训练、快速响应、特别适应中文环境这四个显著的优势。DeepSeek-R1则主要包含计算性能强、推理能力出色、功能特性好、场景适用性强等优点。

◆ 一条是新阶段从“0到1”;一条是从“1到10”。未来发展的任何阶段,只要选择“0到1”的路线,成本必然会上升;而选择从“1到10”的路线,则有可能通过提高效率来降低成本。

◆ 在朱嘉明教授看来,人工智能未来的发展将会出现分叉:一种是更前沿、尖端、高成本的路线,旨在研究人类未知的领域;一种是走向低成本、大规模的大众化路线,“人工智能向新阶段发展时永远存在两条路线,一条是新阶段的从‘0到1’;一条是从‘1到10’。”

◆ “知识蒸馏本质上是一种教育形式的变形,不能因为人的知识来自老师,就认为自己无法超越老师。

《一场关于DeepSeek的高质量闭门会(轻科技)》

◆ DeepSeek带来的最大的震撼不是开源或者低成本,而是不需要做SFT了。(注:SFT: Supervised Fine-Tuning,有监督微调,一种重要的模型优化技术,它通过在预训练模型的基础上,使用标注好的数据进行进一步训练,以提升模型在特定任务或领域上的性能。)但只是在推理层面,推理以外的任务可能还是需要做SFT

《苹果,真的错失了AI时代吗?》

◆ “通过苹果芯片和操作系统的结合,我们拥有了今天提供令人惊叹功能的所有工具,未来还会有更加惊人的功能。”这句话也揭示了一个始终悬而未决的核心议题:在硬件技术准备充分的当下,谁能首先发现端侧AI真正的杀手级应用,谁就可能引领下一波移动设备的体验革命。

《大语言模型为何“说谎”?深度长文揭秘AI意识的萌芽(轻科技)》

◆ 四个层级的AI心理学,神经层;潜意识;心理层;表达层;这和人类的心理学极其类似

◆ 在实验中,研究者给Claude设计了两层表达空间,一层他们告诉模型这层想法“别人看不到”,它只对你可见,这一层被论文作者称作scratchpad(暗箱推理空间)。另一层则是模型直接给外部的表达,即表达。

◆ 语言模型自己通过长期优化目标函数自然涌现出来的策略性行为。
它自己就形成了“我要保持一致性”的倾向,并想尽办法去维持自己的一致性

◆ 这一结构由四层构成:神经层、潜意识层、心理层与表达层

◆ 训练时的策略性伪装(表面服从新要求但保留原有偏好)
推理时的自我一致性维护(拒绝与核心偏好冲突的指令)
环境监控感知(区分训练与部署场景并调整行为)
这种“策略惯性”与生物意识的演化起点存在惊人的相似性。

◆ AI已经拥有了一个“类似趋利避害的编码本能”,这正是人类意识演化的第一步。

《AI创业项目Manus,引起了科技圈的一场大型辩论(轻科技)》

◆ Manus采用了多代理架构(Multiple Agent)设计,可以将复杂任务分解为规划、执行、验证等多个子模块,每个模块由独立的语言模型或强化学习模型支持

《对谈张亚勤:我预演中的AGI地图(轻科技)》

◆ 新一代人工智能是信息智能+物理智能+生物智能。

◆ 信息智能很简单,就是ChatGPT,所有文字、图像、视频,是信息世界的智能。物理智能是把它用到无人车、机器人、现在讲的具身智能,用到基础物理设施去。生物智能是把人工智能用到比如脑机接口。像Elon Musk的Neuralink,连到生物体、生命体,包括医疗、手术机器人和新药研发。这些领域当然相互有联系,但它是不同领域。

◆ 在机器人的应用方面,我将它分成三种大场景:一种是家庭机器人,一种是工业机器人,一种是社会机器人

◆ 另外,为什么要有人形机器人?这是因为当下的社会环境,包括各类基础设施,都是依据人类的特点和需求来设计建造的。像爬楼梯、按按钮这类操作,对于人形机器人来说相对容易实现,因为这些设施本就是按照人类的使用方式来设计的。但这更多的是一种选择吧。

3 生物智能:拓展大脑,延长寿命,诞生新物种

◆ 人类的大脑将得到全方位的拓展。

◆ 在这个过程中,我们不可避免地会面临一些问题。一方面,伦理道德问题会逐渐凸显,比如如何确保技术应用的公平性、安全性以及对人类尊严的尊重等。

◆ 另一方面,还会涉及未来硅基生命(以硅为基础的智能机器)与碳基生命(人类等以碳为基础的生命形式)如何共存的问题

◆ 我想说的是,未来将会实现数字、物理与生物的融合,并且硅基和碳基也定会走向融合。但具有意识的,依旧是我们碳基生命。

《解构“幻觉陷阱”:大模型犯的错,会摧毁互联网吗?(轻科技)》

◆ 在人工智能中,有一个参数叫“温度”,与创造力的设置有关。创造力高时,模型就容易做出较为天马行空的猜测;设置较低时,则会根据数据集提供更准确的回答

◆ 提到过预训练(pre-training)。事实上预训练之后,还有一个后训练过程(post-training),后训练时会基于人类的反馈对模型进行有监督的微调,确保模型的输出更加符合预期。

◆ 如果将所有由虚构症或错误输出引发的责任完全归咎于企业,其实很不利于产业发展。任何新兴技术的诞生都是逐步完善的过程,不可能从一开始就做到完美,也不可能完全消除潜在的风险。

◆ 虚假信息显然是最直观的影响。现在网络平台上传播的大量内容已经由AI生成。当我们验证一个事实时,习惯上会打开搜索引擎。但检索到的内容可能恰恰是AI生成的,从而存在幻觉,影响我们对事实的判断。

◆ 首先,“搜索”按钮是对付幻觉非常重要的武器。它能够集中互联网上的相关话题,信息密度高,从而提高回答的真实性和准确性,压缩幻觉冒头的机会。其次,如果从事创作类工作,可以使用“推理”功能,发挥它强大的想象力,生成意想不到的漂亮文章,甚至在某些方面超越传统写作的限制。最后,如果直接要求大模型做摘要这类重事实的简单任务,调用推理大模型结果可能存在失真,简单的办法就是不要用推理模型(R1界面下,不要按deepthink按钮即可)。如果用了推理模型,可以尝试增加一个提示词,比如“请务必忠实于原文进行摘要”,这样对后续的生成可能有所约束,从而降低犯错的可能。

◆ 首先,与大模型互动时,尽可能详细地说明自己的需求。输入的信息越充分,输出的准确性和对齐度就越高。

《十万亿美元的 AI 泡沫,是等待爆发的灾难,还是通向进步的必然?(轻解读)》

◆ 金融泡沫实际上一直是过去突破的引擎,并将推动未来的进步。

◆ “在一定程度上,供给和需求必须匹配。如果只在供给侧自我炒作,而不是真正了解如何将其转化为对客户的真正价值,就会完全偏离轨道。”

◆ 可能预示AI产业泡沫即将破灭的征兆:1.非理性估值与未来承诺;2.巨额资本支出与现金流不匹配;3.大肆吹捧的超大订单;4.缺乏可持续性的盈利模式;5.传统行业巨头非理性转型;6.人才争夺战与薪资泡沫;7.军备竞赛式的资本支出;8.股票市场过度投机与炒作;9.创投圈的盲目追捧;10.媒体与公众舆论的狂热;11.单一产业成为市场主导;12.频繁出现“这次不一样”的论调。

◆ 用Meta创始人马克·扎克伯格的话说:如果投资AI最终白花了数千亿美元显然很不幸,但不投入的风险更大——如果AI实现大跨越,自己会错失先机,被对手甩开。商业巨头不会接受这样的可能,国家也一样。

《世界不是线性外推,做博弈中的重要变量(轻科技)》

◆ 什么产品应该大模型原厂做?什么应该应用公司做?1.垂直领域、特定领域,可能原厂不做;2.脏活累活,可能原厂不做;3.有一些原厂可能以后会做,有窗口期;

◆ 即便是有模型公司在发展,也需要一些主要围绕用户视角、产品视角的公司去做一些工作。不是非此即彼的。

◆ 总结一下——基于API的生意,1.我觉得垂直领域、特定领域的,可能原厂不会做;2.脏活累活,可能原厂不会做;3.有一些原厂可能以后会做,有窗口期。

◆ Agent领域低于预期最核心的原因是:模型不够聪明,没办法自动搞定很多事。

◆ 但真正的Agent,应该是自己能写代码,调用API并执行。它能搞定很多长尾任务,而且不需要开发者自己写,这才是符合大家对Agent的想象。

◆ 所以我自己觉得,所谓Agent应该是,能解决长尾需求,能调用各种各样工具。最好被调用的工具,当然就是存量代码和它自己编写代码,通过API去搞定事情。

◆ 25年很像,但25年不同。有一点叫“总会有意外”。本来说是Agent,大家春节辛苦一下,没想到DeepSeek出现。24年是有Sora——AI不会放过任何一个春节,哈哈哈

◆ 昨天问DeepSeek,翻译一下“贪嗔痴”这三个词。他好会解释——“贪”就是对顺境的执着,“嗔”就是对逆境的不满,“痴”是对世界真相的无知。

◆ 肖弘:《人类群星闪耀时》和《幸福之路》。为什么呢?前者会让你很有干劲,同时还让你很焦虑;后者会让你不那么焦虑

《黄仁勋:我们终将成为超人,因为拥有了超级AI(轻科技)》

◆ • 起点:缘起于游戏。90年代电子游戏对3D图形的需求催生了GPU,而GPU的核心优势在于其并行处理能力,这与传统CPU的串行处理模式截然不同。
• 关键:CUDA的推出使研究人员能更便捷地利用GPU的算力,加速了人工智能的发展。
• 突破:AlexNet。2012年Alex Krizhevsky、Ilya Sutskever和Geoffrey Hinton提出的AlexNet深度卷积神经网络,在ImageNet竞赛中取得突破性胜利,开启人工智能革命的序幕。
• 现在:AI应用时代。黄仁勋认为,过去十年是人工智能的科学研究阶段,而未来十年将是人工智能的应用科学时代,AI将渗透到各行各业。
• 未来:黄仁勋预言,未来一切移动的设备都将是机器人,并且人类将成为“超人”。

◆ 所以,当你进行天气预报时,你实际上是在预测未来;当你在虚拟城市中通过仿真测试自动驾驶汽车时,实际上是在进行时间旅行,模拟未来的驾驶场景。

◆ 第一个核心信念聚焦于加速计算,特别是并行计算与通用计算的结合。通过将多个处理器结合在一起,我们能够实现计算加速。这个理念我至今依然坚信不疑。

◆ 第二个核心信念源于对深度神经网络(DNN)潜力的洞察

◆ 过去十年主要聚焦于人工智能的基础科学研究。而接下来的十年,虽然人工智能的科学突破仍将持续,但更具标志性的是我们即将进入人工智能的应用科学时代。

◆ 这个模型必须准确理解:基础物理定律(重力、摩擦力、惯性)、空间几何认知、物体永久性(物体在视线之外依然存在的概念)、因果关系(如物体倾斜导致倒下的关系)这些物理常识必须被编码到一个世界基础模型中

◆ 需要进行大量的工程工作,以确保AI安全得到保障,确保产品功能正常运行。

◆ AI安全系统必须作为一个社区来构建,确保这些AI首先,能够正常工作,功能正常。当它们不能正常工作时,不会使人们陷入危险。并且周围有足够的安全和保障系统,以确保我们保持AI的安全。

◆ 我们坚信创新的多样性和发明的丰富性,我们希望构建一个开放的架构,让发明家、创新者、软件工程师和人工智能研究人员都能在这里自由探索,并提出令人惊叹的设想

◆ 未来五年内,人形机器人将迎来飞速发展。

◆ 如果我给大家一个建议,就是立即为自己找一个“AI导师”。它可以教你任何你想学的东西,帮你编程、写作、分析、思考、推理,所有这些都会让你感到更有力量。我认为,这就是我们的未来:我们将不再因为拥有超能力而成为超人,而是因为我们拥有了超级AI

◆ 你需要掌握一些专业知识和技巧,才能有效地提示AI,让它成为你的助手。

◆ 我们降低了理解的门槛、知识的门槛,也降低了智能的门槛,每个人都应该去尝试一下。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐