前沿技术讲习班

面向形式化知识的大模型检索增强:徐童

讲者:徐童
题目:面向形式化知识的大模型检索增强
时间:2024年7月25日 09:00-10:30
摘要:检索增强生成已成为当下的热点课题,并展示出问答、对话生成、文本摘要等多种任务中的卓越潜力,为解决大模型中知识缺乏问题和复杂推理问题提供了一种全新而更为精准的视角。与此同时,作为人工智能时代的认知引擎,知识图谱等知识形式化表达的方式已体现出与大模型技术,尤其是检索增强生成技术深度结合的鲜明趋势,而其信息抽取与归纳的手段也随着大模型技术的发展而日新月异。为此,在本次报告中,我们将回顾检索增强生成与生成式信息抽取的相关技术,进而总结形式化知识如何通过检索增强生成助力大模型的最新进展。
简介:徐童,中国科学技术大学特任教授、博士生导师,中国中文信息学会青年工作委员会主任、国家优青。研究领域为多模态知识学习。发表中国计算机学会推荐A类期刊/会议论文70余篇。获4项国际学术会议论文奖项,指导学生获国内外学术竞赛/测评冠军10余项。2022年获安徽省科技进步二等奖。

文本-语音大模型:许晨、肖桐

讲者:许晨、肖桐
题目:文本-语音大模型
时间:2024年7月25日 10:30-12:00
摘要:近些年,多模态模型取得了飞速进展与广泛关注,特别是随着GPT-4o的发布,其在语音交互能力方面的惊艳表现更是令人瞩目。本报告将围绕“文本-语音大模型”这一主题展开,涵盖语音识别、语音翻译、语音合成等多种任务,旨在总结当前技术发展现状,重点分析文本-语音多模态融合所面临的核心挑战及应对方法,并讲述大语言模型范式下的前沿研究趋势。
简介:许晨,哈尔滨工程大学计算机科学与技术学院准聘副教授。2023年于东北大学获得博士学位。研究方向主要为自然语言处理、语音处理、人工智能安全。在ACL、EMNLP、ICLR、AAAI、IJCAI等国内外高水平会议与期刊发表论文30余篇。多次参加国际WMT新闻翻译评测、质量评估评测,IWSLT语音翻译评测,以及多次国内评测任务,并取得优异成绩。
肖桐,东北大学教授、博士生导师,东北大学计算机学院人工智能系主任,东北大学自然语言处理实验室主任,小牛翻译(NiuTrans)联合创始人。于东北大学计算机专业获得博士学位。2006—2009年赴日本富士施乐、微软亚洲研究院访问学习,并于2013—2014年赴英国剑桥大学开展博士后研究。在国内外相关领域高水平会议及期刊上发表学术论文100余篇,并撰写专著《机器翻译:基础与模型》。作为项目技术负责人,成功研发了NiuTrans、NiuTensor等开源系统,在WMT、CCMT/CWMT、NTCIR等国内外评测中30余次获得冠军。2016年获得中国中文信息学会“钱伟长中文信息处理科学技术奖”一等奖,2021年获得中国计算机学会CCF-NLP青年新锐奖。

大模型Agent与安全:张倬胜

讲者:张倬胜
题目:大模型Agent与安全
时间:2024年7月25日 13:30-15:00
摘要:随着大规模语言模型的飞速发展,构建具备动态环境感知、任务规划、行为决策和工具操控能力的自主智能体逐渐成为现实。现有研究已经在系统控制、科学研究、软件编程、群体协作等方面形成丰富的成果。然而,这些智能体在日常生活中提供巨大便利的同时,也带来了新型的安全挑战。本报告将介绍大模型智能体的发展现状,聚焦智能体在动态环境交互过程中所面临的安全风险,并介绍在智能体安全攻防方面的前沿发展。
简介:张倬胜,上海交通大学长聘教轨助理教授。主要研究方向为自然语言处理、大模型与安全,代表作包括自动思维链推理(Auto-CoT)、多模态思维链推理(MM-CoT)、多模态GUI智能体(Auto-GUI)、大模型智能体安全测评(R-Judge)。在TPAMI、ICLR、ICML、ACL、AAAI等顶级期刊和会议上发表论文70余篇,其中第一作者/通讯作者超过30篇。Google Scholar被引4300次,主导开源成果在GitHub开源社区获得超过10000星标。获得2024世界人工智能大会青年优秀论文奖,3篇论文被Paper Digest选为ICLR、AAAI最具影响力论文之一。多次在IJCAI、COLING、CVPR等CCF-A/B类国际会议上作Tutorial前沿技术讲习班报告。入选2024世界人工智能大会云帆奖璀璨明星、2023年度中国中文信息学会博士学位论文激励计划、2021全球AI华人百强学术新星。

大模型知识机理、融合与编辑:张宁豫

讲者:张宁豫
题目:大模型知识机理、融合与编辑
时间:2024年7月25日 15:00-16:30
摘要:掌握知识一直是人工智能系统发展的核心追求。在这方面,大语言模型展示了巨大的潜力并在一定程度上掌握和应用了广泛的知识。然而,我们对于大语言模型如何内在地习得、存储知识等方面的理解仍然非常有限,我们也无法及时对大语言模型内部的错误及有害知识进行修正。在本次报告中,我将探讨大语言模型的知识机理,并介绍大语言模型知识融合、知识编辑的前沿方法。
简介:张宁豫、浙江大学副教授,浙江大学启真优秀青年学者,在高水平国际学术期刊和会议上发表多篇论文,6篇入选Paper Digest高影响力论文,1篇被选为Nature子刊Featured Articles。主持国家自然科学基金、计算机学会、人工智能学会多个项目,获浙江省科技进步二等奖,IJCKG最佳论文/提名2次,CCKS最佳论文奖1次, 担任ACL、EMNLP领域主席、ARR Action Editor、IJCAI 高级程序委员,主持开发大语言模型知识编辑工具EasyEdit (1.5k)。

迈向可扩展的大模型自动对齐:林鸿宇、郁博文、陆垚杰

讲者:林鸿宇、郁博文、陆垚杰
题目:迈向可扩展的大模型自动对齐
时间:2024年7月25日 16:30-18:00
摘要:对齐在构建符合人类需求的大语言模型(LLMs)过程中具有决定性的意义。随着大模型技术的飞速发展,在许多方面模型的能力已经逐渐逼近甚至超越人类的能力。在这一情况下,传统基于人工标注的对齐方法越来越无法满足可扩展性的需求。因此,迫切需要探索新的自动对齐信号来源和技术方法。在本报告中,我们系统地回顾了最近出现的大语言模型自动对齐方法,试图探讨在LLMs能力超越人类后,如何实现有效的、可扩展的自动对齐。具体而言,我们将现有的自动对齐方法根据对齐信号的来源分为四大类,并讨论每一类方法的现状和潜在发展。此外,我们将探讨实现自动对齐的基本机制,并从对齐的在大模型构建过程中的基本作用出发,讨论了使大模型自动对齐技术可行且有效的关键因素。
简介:
林鸿宇,中国科学院软件研究所中文信息处理实验室副研究员。2020年博士毕业于中国科学院软件研究所。主要研究方向为大语言模型、信息抽取及基于知识的自然语言理解,特别关注于大模型的对齐及知识机制。近年来在自然语言处理和人工智能领域国际顶级期刊及学术会议上发表论文60余篇,主持和参与包括国家自然科学基金青年基金、国家自然科学基金重点项目和中国科学院战略先导A类项目在内的多项国家级、部委级项目,以及CCF-百度松果基金、腾讯微信犀牛鸟基金等在内的多项企业合作项目。曾获中国科学院院长奖特别奖、中国中文信息学会优博、中国中文信息学会钱伟长中文信息处理科学技术奖一等奖。
郁博文,阿里巴巴通义千问对齐负责人。2022年博士毕业于中国科学院信息工程研究所,在ICML、ICLR、ACL等会议发表论文50余篇,被引用2000余次,担任ACL、EMNLP等会议的Area Chair。主导研发了Qwen系列Chat模型,在权威评测LMSYS Chatbot Arena中屡次进入全球前10。
陆垚杰,中国科学院软件研究所中文信息处理实验室助理研究员,2022年获得中国科学院大学博士学位。主要研究方向为大语言模型和信息抽取,中国中文信息学会青年工作委员会委员,担任AAAI、ACL、EMNLP等领域重要国际议审稿人。在AIJ、AAAI、ACL、EMNLP、IJCAI等国际重要学术会议和期刊上发表论文30余篇,曾获中国科学院院长特别奖、中国中文信息学会优秀博士论文奖。