顶尖学府与科技中心联合发布AI研究基金与学者奖项
Laureano Moro-Velazquez,语言与语音处理中心助理研究教授:“改进针对非典型语音用户的语音理解”“在本项目中,我们将创建一个新的数据集,并开发旨在改善非典型语音和言语障碍个体生活的新语音技术。Philipp Koehn,计算机科学教授,以及Kenton Murray,人类语言技术卓越中心研究科学家:“评估多语言机器翻译的多语言性”“深度神经网络在人工智能中的广泛应用,使得研究人
某知名大学与某中心宣布首批六名研究员和九名教职研究奖
某知名大学(JHU)与某中心今日宣布了JHU + 某中心交互式人工智能倡议(AI2AI)的首批博士研究员和教职研究奖获得者。AI2AI倡议于四月启动,隶属于JHU的怀廷工程学院,旨在推动人工智能取得突破性进展,重点关注机器学习、计算机视觉、自然语言理解和语音处理。
“我们非常高兴收到JHU教职员工和学生提交的高质量提案和博士研究员提名,”某中心Alexa AI副总裁表示。“毫无疑问,该倡议将推动交互式和多模态AI技术前沿取得新进展。”
作为该倡议的一部分,年度某中心研究员奖授予在怀廷工程学院注册的博士生。某中心还资助由JHU教职员工领导的研究项目,这些项目将与博士后研究人员、本科生、研究生和研究人员合作。今年的获奖者是首批入选者。
“我们很高兴我们的学生和教职员工有机会在交互式AI这一重要领域与某中心合作,”某知名大学怀廷工程学院研究与转化副院长表示。“利用我们在该领域的集体专业知识,将推动人工智能发展,并为社会带来诸多益处。”
以下是研究员及其研究的名单,随后是教职研究奖获得者及其研究项目。
某中心研究员
Kelly Marchisio正在攻读计算机科学博士学位,师从计算机科学教授Philipp Koehn。“词嵌入空间是现代自然语言处理系统的关键组成部分。我的工作重点是理解和利用嵌入空间的几何特性,目标是创建更小、更有用、更普遍适用于不同语言和领域的空间。”
Arya McCarthy正在攻读计算机科学博士学位,师从计算机科学教授David Yarowsky。“我对自然语言处理的愿景是千语言处理:不仅建模数千种语言,还让它们的集体证据和共性相互增强。为实现这一目标,我创建了神经机器翻译模型;词形还原器、标注器和变形器;甚至对数千种语言的颜色术语进行了深入分析,旨在进一步推进这些前沿领域。这一愿景受到当前说话者需求的现实以及NLP技术未能满足这些需求的驱动。”
Carolina Pacheco Oñate正在攻读生物医学工程博士学位,师从某中心学者兼生物医学工程Herschel Seder教授René Vidal。“我有兴趣将计算机视觉推进到数据或注释可用性有限的领域,这不仅与传统计算机视觉任务中的长尾事件相关,也适用于生物医学科学等其他具有社会影响力的领域。我相信,深度学习与概率模型和领域知识的结合,可以在容量和结构之间提供适当的平衡,从而在自监督和弱监督机制下从有限的数据中进行学习。”
Desh Raj正在攻读计算机科学博士学位,师从电气和计算机工程副教授Sanjeev Khudanpur。“自从30多年前首个自动语音识别系统问世以来,语音技术的进步已催生了自动客户支持和语言学习等应用。通过多年对语音增强和鲁棒语音处理的研究,这些系统现已部署在家庭扬声器和车辆控制等多种场景中。然而,目前的系统是被动聆听者,仅转录单人语音并馈送到下游语言理解组件。未来的对话智能预计将包含能够积极参与人类对话的系统。虽然这类系统需要多种模态的智能,但识别自由流动的多方对话是其需要解决的核心组成部分。”
Anshul Shah正在攻读计算机科学博士学位,师从电气与计算机工程及生物医学工程Bloomberg杰出教授Rama Chellappa。“我目前的研究领域主要包括基于姿态的动作识别、视频理解、自监督学习和多模态学习。我的研究试图在这些研究领域做出根本性贡献,获得新的见解并推进技术前沿。我的兴趣与AI2AI在交互式AI技术方面的重点密切相关,特别是在计算机视觉和多模态AI领域。”
Jeya Maria Jose Valanarasu正在攻读电气与计算机工程博士学位,师从电气与计算机工程副教授Vishal M. Patel。“用于计算机视觉的深度学习方法在视觉识别领域取得了显著进展。其成功的主要原因之一是这些模型训练所使用的数据量。为每个新问题或新应用标注新的真实数据效率非常低。此外,当前的视觉系统在训练期间未见过的数据分布上表现不佳。这个问题被称为领域适应,对于实时部署模型非常重要。此外,当模型在推理过程中适应新数据时,适应需要快速,并且在测试时训练模型是不合理的。因此,我们需要专注于少样本或更好的零样本学习来进行适应。”
教职研究奖
Mark Dredze,计算机科学John C. Malone副教授:“将大型语言模型的知识表征与信息提取系统集成”“在过去的几年里,捕捉语言模式的新型AI模型在从语言中学习信息方面变得非常出色。本项目探索如何利用这些模型学习到的信息来为语言数据的实际应用提供支持,例如识别产品评论中产品的重要特征或特性。该奖项将使我们能够探索如何利用最新进展来帮助改进语言技术的各种应用,从而突破语言建模的极限。”
Philipp Koehn,计算机科学教授,以及Kenton Murray,人类语言技术卓越中心研究科学家:“评估多语言机器翻译的多语言性”“深度神经网络在人工智能中的广泛应用,使得研究人员和工程师能够构建可以在大型语言组之间自动翻译的系统,而无需构建单独的模型。然而,使用一个大型通用模型的局限性尚未得到很好的理解。我们的目标是研究这类AI模型的前沿。”
Anqi Liu,计算机科学助理教授:“通过分布鲁棒学习实现在线领域适应”“本项目旨在通过建模不确定性,实现AI算法的快速、鲁棒适应。该奖项使我能够研究具有现实世界潜在影响的基础研究问题。”
Jesus Antonio Villalba López,电气与计算机工程助理研究教授:“通用语音处理模型”“本项目将研究如何利用大规模AI模型高效提取语音中包含的信息。成果将是一个能够将语音转录为文本,并能识别说话者身份、语言和情绪状态等的通用模型。”
Soledad Villar,应用数学与统计学助理教授:“绿色AI:通过利用对称性实现强大且轻量级的机器学习”“在本项目中,我们研究在机器学习模型设计中利用对称性和低维结构。实施这些数学结构将使我们能够在保持(甚至提高)模型性能的同时,减少训练和评估机器学习模型所需的能源消耗、时间和数据量。”
Laureano Moro-Velazquez,语言与语音处理中心助理研究教授:“改进针对非典型语音用户的语音理解”“在本项目中,我们将创建一个新的数据集,并开发旨在改善非典型语音和言语障碍个体生活的新语音技术。目前几乎没有包含非典型语音的公开数据集,而创建针对受影响人群的新辅助技术需要这些数据。该奖项将使我们能够创建这样的数据集,这对我们和许多其他研究非典型语音的团队都将非常有用。”
Mahsa Yarmohammadi,语言与语音处理中心助理研究科学家:“通过自动投射和人工监督快速创建多语言数据集”“人工智能,特别是自然语言处理,需要大规模数据来学习强大的模型。对于英语等高资源语言以外的语言,此类数据可能不可用。在本项目中,我们研究通过将一种语言的可用数据集自动翻译和对齐为多种其他语言来快速创建多语言数据集。我们还将研究人工监督在提高数据质量方面的影响。一旦创建了这些资源,我们打算使用它们来共同训练用于跨语言NLP任务的单一多语言模型。”
Alan Yuille,认知科学与计算机科学Bloomberg杰出教授:“用于少样本学习的弱监督多模态Transformer及其在新领域和细粒度任务上的泛化”“自监督和弱监督Transformer已被证明对各种视觉、语言和视觉-语言任务非常有效。本提案针对三个挑战。首先,提高标准任务的性能,特别是在细粒度任务上。其次,开发标记化方法以实现少样本,理想情况下是零样本学习。第三,调整这些方法,使其能够泛化到新领域和分布外情况。我们提出了实现这些目标的五种策略,包括扩展基于标记化的方法、修改Transformer结构、增加文本注释以帮助处理这些困难任务,以及使算法能够进行领域外和分布外泛化的技术。”
AI2AI
有关JHU与某中心倡议的更多信息,包括机会和活动,请访问官方网站。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
对网络安全、黑客技术感兴趣的朋友可以关注我的安全公众号(网络安全技术点滴分享)
更多推荐



所有评论(0)