学生研讨会

讲者1:张倬胜

讲者:张倬胜
题目:大模型时代如何注入持续的研究动力?
摘要:大模型时代的研究范式正在发生深刻变化,工业界和学术界的角色也在不断演变,对研究工作的评价标准变得更加多样化。本报告将结合讲者在企业和高校的研究经历,探讨在高校有限资源下如何选择合适的研究方向,并在不同成长阶段动态调整和升级。同时,报告将分享如何与导师同舟共济、独辟蹊径,希望同学们能不断发现有趣、有意义的研究问题,形成有影响力的工作。
简介:张倬胜,上海交通大学长聘教轨助理教授。主要研究方向为自然语言处理、大模型与安全,代表作包括自动思维链推理(Auto-CoT)、多模态思维链推理(MM-CoT)、多模态GUI智能体(Auto-GUI)、大模型智能体安全测评(R-Judge)。在TPAMI, ICLR, ICML, ACL, AAAI等顶级期刊和会议上发表论文60余篇,其中第一作者/通讯作者超过30篇。Google Scholar被引4200次,主导开源成果在GitHub开源社区获得超过10000星标。入选2023年度中国中文信息学会博士学位论文激励计划、2023世界人工智能大会云帆奖明日之星、2021全球AI华人百强学术新星。曾在亚马逊云科技、微软雷德蒙德研究院、澜舟科技、日本国立情报研究机构(NICT)实习或访问。

讲者2:王炳宁

讲者:王炳宁
题目:大模型时代学生的应用能力提升
摘要:大模型时代来临之后,学术界和工业界在研究课题、研究方法上越来越趋同,对于很少做过实际落地大模型项目的年轻研究者和学生来说带来了不小的挑战。特别是在机器算力情况差别巨大的情况下,学术研究和产业界的研究差距看起来越来越大。本次报告将探讨学生如何在当前大模型时代适应这种变化,并且将研究重点放在有意义的研究之中。
简介:王炳宁,百川智能预训练负责人。博士毕业于中国科学院自动化研究所,主要研究问答系统和大语言模型。历任搜狗、腾讯高级研究员,有着丰富大规模生成式模型经验,主导并发布如ReCO、ComQA、ChiQA、T2Ranking等大规模中文问答数据,以及Baichuan系列预训练模型。在ACL、SIGIR、AAAI等国际顶级人工智能和自然语言处理会议上以第一作者发表论文11篇,并获得2021年CIKM best paper runner up。博士论文《机器阅读理解关键技术研究》获2019年中国中文信息学会优秀博士论文奖。中国中文信息学会青年工作委员会委员。

讲者3:曹鹏飞

讲者:曹鹏飞
题目:从学生到青年教师的科研转变
摘要:随着大模型技术的快速发展,自然语言处理也进入了新的历史发展阶段,为科研人员带来了新的机遇与挑战。本次报告将结合讲者从学生到青年教师的科研经历,探讨如何适应快速变化的科研环境,调整科研方向,转变科研思维,从而把握新兴的研究机遇。通过本次报告,希望能够为学生把握好科研方向以及继续从事科研工作提供一些启示。
简介:曹鹏飞,中国科学院自动化研究所助理研究员,2023年博士毕业于中国科学院自动化研究所。主要研究方向为自然语言处理、大语言模型和信息抽取,近年来在AAAI、ACL、EMNLP、CIKM等人工智能与自然语言处理领域国际重要学术会议上发表论文30余篇,担任ACL、NAACL领域主席,以及TKDE、AAAI、ACL、EMNLP 等领域重要国际期刊/会议审稿人。曾获得中国科学院特别研究助理资助项目、中国科学院院长奖和中国中文信息学会优秀博士论文奖。

讲者4:周昆

讲者:周昆
题目:博士生入门科研新领域经验分享
摘要:近几年来,AI社区涌现出许多新技术,在快速革命领域内方向的同时,也为研究者们带来巨大的新技术学习的压力。本报告将从讲者本人的角度,以大语言模型方向为例,介绍一名普通的博士生如何快速入门新领域,为同样有类似焦虑的同学们提供参考。
简介:周昆是中国人民大学信息学院2020级博士研究生,导师为文继荣教授与赵鑫教授,其研究关注大语言模型,自然语言处理和信息检索。至今为止已在领域内顶级会议上以第一作者身份发表论文十余篇,至今个人引用4000+。曾获EACL 2024 Evaluation and Model Insight Award,2022年国家奖学金、2022年百度奖学金、2022年字节跳动奖学金、2022年微软学者奖学金等荣誉。

讲者5:叶方华

讲者:叶方华
题目:英国博士求学心得分享
摘要:英国作为老牌教育强国,每年吸引着来自全球的众多留学生。在这次报告中,我将与大家分享我在英国攻读博士期间的一些经验和感悟,包含英国博士申请、英国学制、学术环境、师生关系、文化差异、社交生活、求职准备等诸多方面。希望我的分享能够为对英国留学感兴趣的学生提供一些参考。
简介:叶方华,英国伦敦大学学院在读博士生,师从Emine Yilmaz和Jun Wang教授。主要研究兴趣为对话系统、大语言模型和信息检索,近年来在ACL、EMNLP、WWW、NeurIPS、ICDM和SIGMOD等国际会议发表多篇论文,并曾担任EMNLP 2023领域主席。

讲者6:冯世坤

讲者:冯世坤
题目:Physical informed molecule Pre-training
摘要:分子预训练在药物发现中是一项重要的技术,学习到的分子表示可以应用于各种分子性质预测相关下游任务。现有的分子以训练方法大部分直接借鉴于NLP和CV领域,缺乏对于分子本身化学和物理特性的解释。 为此,我们提出一系列受分子物理特性启发的预训练方法Frad和SliDe,在预训练过程中中学习和刻画分子的力场。实验表明,我们的方法在不同分子的量子相关性质预测的benchmark上都取得了SOTA的表现。
简介:冯世坤,清华大学计算机系博士生,指导老师是兰艳艳老师和马维英老师。 研究方向是AI4Science, 在相关机器学习会议ICML, ICLR发表多篇论文,并在KDD和NeurIPS担任审稿人。