近年来,甚至近几个月来,被称为生成式AI的技术取得了迅猛发展。生成式AI模型在难以想象的庞大文本、代码、图像和其他丰富数据集合上进行训练。它们现在能够按需生成连贯且引人入胜的故事、新闻摘要、诗歌、歌词、绘画和程序。生成式AI的实际应用潜力刚刚开始被理解,但很可能具有多重且革命性的用途,包括写作辅助、创意内容制作与精炼、个人助理、文案撰写、代码生成等等。

因此,人们对生成式AI可能带来的变革和新机遇感到相当兴奋。同时也存在可以理解的担忧——其中一些是传统负责任AI问题的新变体,另一些则是全新的问题。在本文中,我将探讨这些担忧以及如何逐步解决它们。

什么是生成式AI?

要理解生成式AI及其工作原理,从大语言模型的例子入手会很有帮助。想象一个思想实验:我们从一个句子片段开始,然后调查人们接下来会添加什么词。通过足够大规模的调查,下一个词的概率分布就会浮现。然后我们可以从该分布中随机选择一个词,使序列延长一个词,并再次调查下一个词。通过这种方式,我们理论上可以生成整个故事。

机器学习的巨大进步实际上使这个思想实验成为现实。但不是调查人群,而是使用一个模型来预测可能的下一个词,该模型在大量文档集合上训练——包括小说和非小说、维基百科条目和新闻文章、人类对话记录、开源代码等等。

由此产生的模型与其训练数据一样复杂,通常由数千亿个数字描述。大语言模型已经变得如此出色,不仅始终生成语法正确的文本,而且创建的内容连贯且常常引人入胜,与其给定的提示片段风格相匹配。

生成式AI不仅限于文本,许多模型结合了语言和图像。构建此类系统的技术比大语言模型稍微复杂一些,涉及学习文本和图像之间接近度的模型。

面临的问题

公平性挑战

生成式AI中的"生成"指的是该技术可以产生随重复尝试而变化的无限制内容。这与更传统的机器学习用途形成对比,后者通常解决非常专注和狭窄的预测问题。

考虑确保大语言模型公平的问题。我们甚至可能意味着什么?例如,我们可能要求大语言模型平等对待男性和女性。但应该对所有职业都执行这一点吗?在什么背景下应该执行并不明显。

定义大语言模型的公平性比我们上面暗示的更加模糊,因为它们生成的是无限制内容。从代词选择转向语气,如果大语言模型在生成关于女性的内容时使用比男性稍微更负面的语气怎么办?检测和量化这种差异将是一个非常具有挑战性的技术问题。

隐私问题

生成式AI的无限制性质将关注点从训练数据的逐字泄露扩展到更微妙的复制现象。例如,如果程序员使用某些变量名编写了代码,然后要求大语言模型帮助编写子程序,大语言模型可能会从其训练数据生成代码,但原始变量名被程序员选择的名称替换。

特殊挑战

毒性:生成式AI的主要关注点是可能生成冒犯性、令人不安或其他不适当的内容。确定什么构成有毒内容的主观性是一个额外挑战。

幻觉:考虑到大语言模型采用的下一词分布抽样,在更客观或事实性使用案例中,大语言模型容易产生所谓的幻觉——听起来合理但可验证不正确的断言或主张。

知识产权:早期大语言模型的问题是偶尔产生训练数据部分的逐字重复。但即使在这方面有所改进,也未能防止训练内容的更模糊和细微的复制。

抄袭和作弊:生成式AI的创造能力引起担忧,担心它将被用于撰写大学论文、工作申请写作样本和其他形式的作弊或非法复制。

工作性质 disruption:生成式AI能够创建引人入胜的文本和图像、在标准化测试中表现良好、撰写给定主题的整篇文章以及成功总结或改进提供文章的语法,这引起了一些焦虑,担心某些职业可能被该技术取代或严重干扰。

解决方案

对于毒性和公平性,精心策划训练数据可以提供一些改进。用例特定测试也有助于解决公平性问题——例如,在生成式AI用于高风险领域之前,可以针对该特定应用测试模型的公平性。

对于不太有针对性的毒性概念,自然方法是训练所谓的护栏模型,检测并过滤掉训练数据、输入提示和生成输出中不需要的内容。

对于产生无幻觉的高保真内容的挑战,重要的第一步是教育用户了解生成式AI的实际工作原理,这样就不会期望生成的引用或类似新闻的故事总是真实或事实正确的。

围绕知识产权的担忧可能会通过技术、政策和法律机制的混合随时间得到解决。短期内,围绕各种模型剥夺概念的科学正在兴起,其中受保护内容或其對生成输出的影响被减少或移除。

一些有趣的阻止使用生成式AI作弊的方法已经在开发中。一种是简单地训练一个模型来检测给定文本是由人类还是生成模型产生的。一个有潜力的替代方案是水印或指纹识别方法,将由生成模型开发者自己实施。

对我们所知的工作 disruption 没有明显的技术防御措施,意见在事情将如何解决上差异很大。生成式AI可能成为许多专业环境中的有效生产力工具,这将至少改变当前人类与机器之间的劳动分工。

也许对抗生成式AI担忧的最大防御可能来自最终用例的专业化。随着生成式AI的潜在用途和危害得到更好和更广泛的理解,用户将用自己的常识补充我上面概述的一些防御措施。

结论

生成式AI既激发了合理的热情,也引起了合理的恐惧。我试图部分调查关注点的格局,并提出解决这些问题的前瞻性方法。应当强调,在生成时代解决负责任AI风险将是一个迭代过程:不会有一劳永逸的"正确解决"。这一格局肯定会随着技术和我们对其态度的变化而转变;唯一不变的是需要在热情与对担忧的实际有效检查之间取得平衡。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐