特邀报告

特邀报告1:大模型和大数据库双轮驱动的人工智能方法(鄂维南院士)

报告讲者:鄂维南 院士(北京大学)
报告题目:大模型和大数据库双轮驱动的人工智能方法
报告摘要:在这个报告中,我们将重点讨论如何将大模型方法和高性能的通用AI数据库方法相结合,来建立高效率、高准确率、低门槛、低成本的人工智能系统。
个人简介:鄂维南,北京大学国际机器学习研究中心主任,北京科学智能研究院理事长。中国科学院院士,美国数学学会、美国工业与应用数学学会、英国物理学会、中国工业与应用数学学会、中国运筹学会、中国计算机学会Fellow。
研究领域为机器学习、计算数学、应用数学。2022 年国际数学家大会1小时报告人。2022年国际机器学习大会特邀报告人。2003年获国际工业与应用数学协会Collatz奖。2020年获国际高性能计算最高奖ACM Gordon Bell奖。2023年获国际工业与应用数学协会Maxwell奖。

特邀报告2:表示学习研究进展与展望(梁吉业 山西大学教授)

报告讲者:梁吉业 教授(山西大学)
报告题目:表示学习研究进展与展望
报告摘要:机器学习方法的性能严重依赖数据的表示。在深度学习时代,数据的表示被融入到学习过程,获得好的数据表示逐渐成为学习的重点。目前,表示学习已成为机器学习和人工智能领域的重要研究方向。本报告首先介绍表示学习的相关背景、主要方法及关键问题;其次对我们在概念认知、泛化误差和贝叶斯错误率三个视角下的表示学习最新研究进展进行阐述;最后分享对表示学习的一点思考以期启发未来的研究。
个人简介:梁吉业,博士、教授、博士生导师,中国计算机学会(CCF)会士,中国人工智能学会(CAAI)会士,山西大学学术委员会主任,计算智能与中文信息处理教育部重点实验室主任,曾任山西大学副校长(正校级)、太原师范学院院长。现任教育部科技委人工智能与区块链专门委员会委员,教育部计算机类专业教指委委员,中国计算机学会人工智能与模式识别专委会主任,山西省计算机学会理事长,享受国务院政府特殊津贴专家。先后主持科技创新“2030—新一代人工智能”重大项目、国家自然科学基金重点项目、国家863计划项目等10余项。先后在AI、JMLR、IEEE TPAMI、IEEE TKDE、NeurIPS、ICML等国际国内重要学术期刊和会议发表论文300余篇。作为第一完成人获山西省自然科学一等奖3项、第五届中国国际发明展览会金奖1项、山西省教学成果特等奖2项。2014—2023年连续入选爱思唯尔中国高被引学者榜单。指导的4名博士生分别获得全国百篇优秀博士学位论文提名奖、中国计算机学会优秀博士学位论文奖、中国人工智能学会优秀博士学位论文奖、中国中文信息学会优秀博士学位论文奖。

特邀报告3:认知启发的通用人工智能的一些思考(宋森 清华大学研究员)

报告讲者:宋森 研究员(清华大学)
报告题目:认知启发的通用人工智能的一些思考
报告摘要:最近大模型驱动的人工智能取得了很大进展,但最近其缺陷也越来越明显。我将试图从认知科学和脑科学的角度提出通用人工智能可能需要具有的一些特性,并且从本人的研究举出几个认知启发的人工智能的案例,尤其关注系统一和系统二的可能交互方法,以及规则学习等领域。
个人简介:宋森,清华大学长聘副教授,脑与智能实验室主任助理,生物医学工程学院研究员。2002年获美国布兰戴斯大学计算神经学博士学位,后在冷泉港实验室及麻省理工学院完成博士后研究。自2010年加入清华大学,主攻计算神经科学和类脑智能研究。二十多年来一直致力于神经科学和人工智能的交叉融合,用于解释智能的原理,并应用于解决生物和医学领域的重大问题。在类脑计算与智能关键理论原理、模型算法和架构应用方面取得了一系列国际领先成果。研究成果已在Nature、Neurips、ICML、ACL等国际会议期刊发表60余篇。一篇研究脉冲时间依赖可塑性的文章被引用3130次。天机芯论文被发表在Nature杂志,并获评中国年度十大科学进展。

特邀报告4:人工智能:游走在神经与符号之间(刘群 华为语音语义首席科学家)

报告讲者:刘群 语音语义首席科学家(华为)
报告题目:人工智能:游走在神经与符号之间
报告摘要:人工智能中的神经符号之争由来已久,大语言模型将神经方法的能力扩展到了极致,以大语言模型为核心的神经网络方法是否终将能够完美模拟人类智能?符号计算在人工智能中是否还有存在的必要?本报告讲试图对这一问题进行系统的整理和讨论。本报告首先将梳理与神经符号之争的相关概念,然后将讨论神经方法与符号方法相结合的必要性和优缺点,并从知识表示的角度,对神经和符号结合的各种方法进行分类总结,最后将展望这一领域的未来发展方向。
个人简介:刘群,教授,华为语音语义首席科学家,ACL Fellow。从2018年起,他领导了华为诺亚方舟实验室的语音语义团队,该团队开发了包括机器翻译、对话系统、语音识别与合成、预训练大语言模型等一系列技术,为华为公司的产品和服务提供了有力支持。加入华为之前,从2012年起,他是爱尔兰都柏林城市大学教授、爱尔兰ADAPT中心自然语言处理主题负责人。在此之前,他在中国科学院计算技术研究所工作了20年并担任研究员职位,创建了自然语言处理研究组并担任负责人。他分别在中国科学技术大学、中科院计算所、北京大学获得计算机学士、硕士和博士学位。他的主要研究方向是自然语言处理,研究成果包括汉语词语切分和词性标注系统、统计和神经机器翻译、预训练语言模型、问答和对话系统等。他在专业会议和期刊上发表300多篇论文被引用19000多次,培养国内外博士硕士毕业生50多人。他获得过Google Research Award、ACL Best Long Paper、钱伟长中文信息处理科学技术奖一等奖、国家科技进步二等奖、IAMT Honor Award等众多奖项。

特邀报告5:大模型对齐技术初探(黄萱菁 复旦大学教授)

报告讲者:黄萱菁 教授(复旦大学)
报告题目:大模型对齐技术初探
报告摘要:大模型对齐指的是优化大模型的行为和输出,使其符合人类意图和价值伦理的过程,对确保生成式人工智能的安全性和可靠性具有重要意义。该报告聚焦于大模型的能力与价值对齐,首先探讨如何通过基于人类反馈的强化学习算法,利用人类偏好数据训练奖励模型,再使用近端策略优化等算法将复杂的人类价值观和伦理原则注入大模型,实现模型的价值对齐;然后讨论如何通过人类偏好学习多角度提升大模型能力,确保模型在处理复杂任务时的安全性、公平性和透明度;之后介绍复旦大学团队所研发的对话式大模型和多模态大模型,分享如何将大模型有效应用于各类现实场景,如智能助手、多模态交互等。
个人简介:黄萱菁,复旦大学教授、国家“万人计划“科技创新领军人才。主要从事人工智能、自然语言处理和信息检索研究。兼任中国中文信息学会理事、中国计算机学会自然语言处理专委会主任、计算语言学学会亚太分会副主席。近年来承担了多项国家级/省部级科研项目,在国际重要学术刊物和会议发表论文200余篇,被引2万余次,8次入选优秀论文奖。获钱伟长中文信息处理科学技术奖、上海市优秀学术带头人、上海市育才奖、人工智能全球女性学者、福布斯中国科技女性等多项荣誉。

特邀报告6:Understanding and Navigating Human Control and Transparency in Language Models(Ivan Titov 爱丁堡大学 & 阿姆斯特丹大学教授)

报告讲者:Ivan Titov 教授(爱丁堡大学 & 阿姆斯特丹大学)
报告题目:Understanding and Navigating Human Control and Transparency in Language Models
报告摘要:语言模型是一项令人兴奋的技术,它改变了我们的领域,并且现在每天都有数百万人在使用。然而,无论是用户还是研究人员,往往对这些模型的响应感到困惑,难以理解其背后的决策过程或将其响应归因于特定的数据源。我们小组的工作试图增强这些模型对人类用户的透明度,确保其行为具有系统性,并揭示其决策的来源。这种透明度应能更好地控制这些模型,包括模型编辑或消除不良行为或数据源。
在本讲座中,我将讨论我的研究小组和其他同事一直在开发的方法,不仅强调方法,还强调一路走来的一些谨慎教训这包括在数据归因中的陷阱以及用以人类理性指导模型响应的所带来的挑战。尽管在这些领域的进展可能看起来缓慢且有时难以捉摸,但鉴于人类与大型语言模型之间日益依赖的合作,这是一个至关重要的方向。我还希望能说服你们,这一领域蕴藏着各种有趣的开放性问题,有待研究人员去探索。
个人简介:Ivan Titov 是英国爱丁堡大学的教授,也是荷兰阿姆斯特丹大学的特聘教师。Ivan 目前的研究兴趣集中在使深度学习模型具有可解释性、鲁棒性和可控性,或者更广泛地说是在 NLP 机器学习方面。他在顶级NLP会议上获得了多个奖项。Ivan 曾担任 ICLR 2021 和 CoNLL 2018 的项目联合主席,并在《ACL 期刊》(Transactions of the ACL)、《人工智能研究期刊》(Journal of Artificial Intelligence Research)和《机器学习研究期刊》(Journal of Machine Learning Research)的编委会以及 ACL 欧洲分会的顾问委员会任职。Ivan 是 欧洲实验室学习系统(ELLIS)的研究员,同时也是 ELLIS NLP 项目和爱丁堡 ELLIS 单元的共同负责人。伊万的研究团队得到了个人奖学金(如欧洲研究理事会、荷兰 Vici 和 Vidi 奖学金)以及行业基金(如谷歌、SAP、Booking.com 和亚马逊)的支持。