对话式AI研究项目与学术奖学金启动
提出新颖的事实一致性模型验证答案可靠性,引入事实性损失训练惩罚方法及检索增强的RL与AI反馈机制,同时监督推理过程。重点探索如何更好地理解人机及人人对话内容,开发定制化对话AI评估指标,并研究跨模型知识迁移以提升效率。利用动态神经场构建多模态基础模型,支持三大应用:生成式动态数字孪生作为多模态数据引擎、具身环境中的对话AI交互、具身代理执行现实世界任务规划。更多精彩内容 请关注我的个人公众号 公众
学术奖学金获得者
Steeve Huang
三年级博士生,BLENDER实验室成员,研究方向包括事实核查、虚假新闻检测、事实错误纠正以及提升文本生成模型的可信度。开发了零样本事实错误纠正框架,其纠正结果比传统监督方法更具可信度和事实性。2022年曾在某中心实习,与信息科学副教授Yang Wang及哥伦比亚大学计算机科学教授Kathleen McKeown合作。
Ming Zhong
三年级博士生,数据挖掘组成员,研究方向为个性化对话AI系统。重点探索如何更好地理解人机及人人对话内容,开发定制化对话AI评估指标,并研究跨模型知识迁移以提升效率。
研究项目
Volodymyr Kindratenko
项目:“基于AI的个性化教育到科学发现:快速部署AI领域专家”
开发基于知识的对话AI系统,能够快速获取特定领域知识成为"专家"。提出新颖的事实一致性模型验证答案可靠性,引入事实性损失训练惩罚方法及检索增强的RL与AI反馈机制,同时监督推理过程。
Yunzhu Li
项目:“通过语言锚定动态神经场实现可操作对话AI”
利用动态神经场构建多模态基础模型,支持三大应用:生成式动态数字孪生作为多模态数据引擎、具身环境中的对话AI交互、具身代理执行现实世界任务规划。
Gagandeep Singh
项目:“大语言模型的高效公平性认证”
开发首个基于新颖公平性规范和概率认证方法的大语言模型公平性形式化认证方案,比现有测试方法提供更高可信度。
Shenlong Wang与Romit Roy Choudhury
项目:“将空间感知融入对话AI实现现实任务辅助”
提出创新对话AI工作流,通过多模态感知获取、更新和利用用户及环境的空间知识。
Han Zhao
项目:“负责任对话AI:安全基础模型的监控与改进”
提出两大安全度量标准:鲁棒置信安全(RCS)要求LLM对分布外场景分配低置信度;自一致安全(SCS)要求LLM在相同语境下保持响应逻辑一致性。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
公众号二维码
更多推荐
所有评论(0)