评测发布


第二十一届中国计算语言学大会(CCL 2022)
技术评测任务发布

“第二十一届中国计算语言学大会”(The Twenty-first China National Conference on Computational Linguistics, CCL 2022)将于2022年10月14-16日在江西省南昌市举行,会议主办单位为中国中文信息学会,承办单位为江西师范大学。

本次大会继续组织中文语言处理技术评测。经过前期评测任务征集,评测委员会已确定14个评测任务,涵盖了语义分析、文本纠错、信息抽取、模型效率评估、语言迁移、阅读理解、问答对话、多模态等重要研究方向。欢迎广大研究者参与评测竞赛。中国中文信息学会将为在评测中取得优异成绩的队伍提供官方荣誉证书。

一、评测任务

任务1:第二届中文抽象语义表示解析评测(CAMRP 2022)

任务简介

任务背景

抽象语义表示(Abstract Meaning Representation,AMR)是近些年国际上新兴的整句语义表示方法,很好地解决了整句语义的形式化表示问题。目前已经成为了国际的研究热点,并引起较大关注。AMR自动解析等相关的技术也被广泛用于机器问答和文本摘要等自然语言处理下游任务中,并取得了优异的成果。2020年在CoNLL国际评测上,中文AMR语料已经与英德等四种语言一起进行了语义解析评测(http://mrp.nlpl.eu/2020/index.php)。

任务介绍

本次为第二届中文抽象语义表示解析评测(Chinese Abstract Meaning Representation Parsing,CAMRP 2022),评测任务是在中文抽象语义语料库上,自动解析出句子的AMR图。与英文AMR不同的是,中文AMR增加了概念关系对齐信息和虚词信息,并针对中文特点增加了一些语义标签。遗憾的是,概念关系对齐信息并没有用于CoNLL2020的评测。因此,本次评测重新设计了包含了概念关系对齐的信息的新评测指标Align-smatch,以更好地评估自动解析的性能,推进汉语句子的语义解析研究。

本次评测根据参赛队伍成绩最终排名,分别设立一、二、三等奖。

组织者和联系人

任务组织者:李斌、曲维光、周俊生(南京师范大学); 薛念文(布兰迪斯大学)

工作人员:许智星、肖力铭、芦靖雅、陈瑾、谢媛媛、袁义国等(南京师范大学)

联系方式:libin.njnu@gmail.com

任务奖项

中国中文信息学会提供的荣誉证书

任务网址

https://github.com/GoThereGit/Chinese-AMR

任务2:第二届中文空间语义理解评测(SpaCE 2022)

任务简介

任务背景

空间范畴是人类认知中重要的基础范畴。理解文本中的空间信息不仅需要掌握字词含义,还需要具有常识或背景知识,要调动语言范畴之外的空间想象等认知能力。 空间语义理解在NLP领域也长期受到关注,是NLP评测的重要内容之一,但以往相关评测任务主要关注语言中正确的空间语义信息的分析。人类在能够识别常规、正确的空间信息的同时,还能够识别异常、错误的空间信息。如对于“在四面签一个名字”,人类能够意识到其中存在异常,因为“一个名字”通常不会签在“四面”;又如“跳进山洞外”,“跳进”搭配的必须是表达一个空间内部方位的成分,如“山洞中、山洞里”,无法搭配“山洞外”。显然,空间方位表达的异常存在不同的类型,如词语搭配问题、上下文语义冲突问题、违反常识或背景信息的问题等。

任务介绍

基于以上认识,我们于2021年依托 CCL2021 成功举办了首届中文空间语义理解评测任务(SpaCE,Spatial Cognition Evaluation)。今年,我们依托 CCL2022 ,继续推出第二届中文空间语义理解评测(SpaCE 2022)。分为如下3个子任务:

子任务1,中文空间语义正误判断:判断给定的中文文本中是否存在空间语义异常。

子任务2,中文空间语义异常归因:识别给定中文文本中空间语义异常的片段及其类型。

子任务3,中文空间实体识别与空间方位关系标注任务:基于给定的空间关系标注规范,对给定中文文本进行空间实体的识别与空间方位关系标注。

组织者和联系人

任务组织者:詹卫东、穗志方(北京大学)

任务联系人:孙春晖、李楠、邢丹、王诚文、岳朋雪、王希豪、邱晓枫等(北京大学)

联系方式:sc_eval@163.com

任务奖项

中国中文信息学会提供的荣誉证书

奖金:总计50000元

任务网址

https://2030nlp.github.io/SpaCE2022/

任务3:汉语学习者文本纠错评测(CLTC 2022)

任务简介

任务背景

汉语学习者文本纠错任务(Chinese Learner Text Correction,CLTC)旨在自动检测并修改汉语学习者文本中的标点、拼写、语法、语义等错误,从而获得符合原意的正确句子。近年来,该任务越来越受到关注,也出现了一些有潜在商业价值的应用。为了推动这项研究的发展,研究者通过专家标注以及众包等形式构建一定规模的训练和测试数据,在语法检查以及语法纠错等不同任务上开展技术评测。同时,由于汉语学习者文本纠错任务相对复杂、各评测任务以及各数据集之间存在差异,在一定程度上限制了文本纠错的发展。因此,我们希望通过汇聚、开发数据集,建立基于多参考答案的评价标准,完善文本纠错数据及任务,聚焦该研究领域中的前沿问题,进一步推动汉语学习者文本纠错研究的发展。

任务介绍

本次评测既整合了已有的相关评测数据和任务,又有新开发的数据集,以设置多赛道、统一入口的方式开展比赛任务。同时,我们研制了各赛道具有可比性的评测指标,立足于构建汉语学习者文本纠错任务的基准评测框架。 本次评测有以下五个赛道:

(一)中文拼写检查(Chinese Spelling Check):检测并纠正中文文本中的拼写错误;

(二)中文语法错误检测(Chinese Grammatical Error Diagnosis):检测出中文文本中每一处语法错误的位置、类型;

(三)多维度汉语学习者文本纠错(Multidimensional Chinese Learner Text Correction):检测并修改句子中的语法错误,并按照不同维度的参考答案分别进行评价;

(四)多参考多来源汉语学习者文本纠错(Multi-reference Multi-source Chinese Learner Text Correction):检测并修改不同来源的句子中的语法错误,并基于给定的多条参考答案进行评价;

(五)语法纠错质量评估(Quality Estimation):预测每一个语法纠错结果的质量评估分数(QE Score)来对语法纠错的结果进行质量评估。

组织者和联系人

任务组织者:杨麟儿、杨尔弘(北京语言大学); 李正华(苏州大学); 孙茂松(清华大学); 张民(苏州大学); 刘正皓(东北大学); 饶高琦(北京语言大学); 李辰(阿里巴巴达摩院)

任务联系人:王莹莹(北京语言大学博士生,总负责,blcuicall@163.com); 孔存良(北京语言大学博士生,赛道三); 章岳(苏州大学硕士生,赛道四); 梁念宁(清华大学硕士生,赛道一); 方雪至(北京语言大学硕士生,赛道二); 周天硕(东北大学硕士生,赛道五)

任务奖项

中国中文信息学会提供的荣誉证书

奖金:总计50000元

任务网址

https://github.com/blcuicall/CCL2022-CLTC

任务4:中文高效自然语言理解模型评测(CELUE)

任务简介

任务背景

超大规模的预训练模型已经将大多数自然语言处理任务推向了新的SOTA,伴随而来的则是越来越昂贵的计算代价。如今,越来越多的研究者开始将注意力放在了模型效率和易用性上,而不是一再追求遥不可及的SOTA性能。这些工作的目标从追求SOTA转移到了“帕累托SOTA”。帕累托SOTA模型意味着目前没有其他模型能够在所有感兴趣的维度上都优于它。相比于性能的评估,不同研究对效率的评估不尽相同,这使得很难对其进行全面公平地对比,很难判断一种方法是否以及在多大程度上实现了帕累托改进,尤其是在对比不同加速方法的情况下。

任务介绍

针对目前自然语言处理领域两个高效方法分支:静态方法(知识蒸馏、模型剪枝等)以及动态方法(早退技术等),复旦大学自然语言处理实验室提出了一个可以用于标准评估模型推断效率的基准——ELUE(Efficient Language Understanding Evaluation)。为了使评估结果更加全面且公平,ELUE采用了FLOPs(浮点运算次数)作为模型效率的指标,同时采用了多维度的评测,结合效率以及性能为模型计算出一个综合的ELUE得分,得分越高表明在相同的FLOPs该模型能达到越高的性能,或者说是在相同的性能下该模型的FLOPs更少。

本次评测任务将ELUE基准迁移到五个中文语言理解任务,任务类型包含文本分类、分词、词性标注、命名实体识别以及诗歌匹配。参赛者需要利用一个模型同时完成这五个任务,评测系统会结合模型完成推断所使用的FLOPs以及预测性能计算出其ELUE分数,ELUE分数越高的模型排名越高。

组织者和联系人

任务组织者:刘向阳、孙天祥、何俊亮、吴嘉文、吴玲玲、邱锡鹏(复旦大学); 姚远、刘知远(清华大学)

任务联系人:刘向阳(xiangyangliu20@fudan.edu.cn)

任务奖项

中国中文信息学会提供的荣誉证书

任务网址

https://github.com/fastnlp/CCL2022-CELUE

任务5:跨语言知识迁移——汉语到少数民族语言(CMXT 2022)

任务简介

任务背景

近年来,基于预训练+Finetune 的 NLP 范式已经成为业界主流做法,除了关注在单个语言上的预训练技术探索之外,跨语言迁移技术被学术界和工业界广泛关注。学术界所使用的跨语言数据集是都以英文为 Pivot(如 XTREME,Google 举办)且主要涉及境外主流语种(如法、德、西等),但对国内的民族小语种缺乏关注,如 mBERT 模型不能支持维、藏、粤、传统蒙古语、传统哈萨克语。国内研究者比较关注的评测是中文语言理解基线评测 CLUE,该评测主要关注中文的理解任务,例如分类、阅读理解、问答等,对于跨语言和民族语言任务没有涉及。

任务介绍

为了更好推动国内民族语言信息技术发展,腾讯信息安全部小语种理解团队开放了3个基于国内民族语言的跨语言数据集和基线,并开放了用于预训练的大量民语单语语料。任务涉及:跨语言话题分类,跨语言正文与标题匹配,跨语言短文检索。语种涉及:维、藏、传统蒙古语、粤语、传统哈萨克语,朝鲜语、汉语、英语8个语种。(注明:为了方便大家模型调优,我们引入英文) 任务描述如下:

1)跨语言话题分类:我们定义了23个话题领域标签(如政治、军事、法治等),在中文上训练话题分类任务,在其他语言上做分类预测。该任务提供上述8个语种的单语语料用于预训练、中文分类标注数据、小语种开发集、小语种测试A/B集。

2)跨语言正文与标题匹配:该任务是基于跨语言的正文和标题匹配任务,在中文上训练匹配任务,在其他语言上做匹配预测。匹配任务目标是:使用文章正文,从标题候选里选择该文章的恰当标题。该任务提供用于预训练的单语数据、中文文章-标题标注数据、小语种开发集、小语种测试A/B集。

3)跨语言短文检索:该任务是基于跨语言的短文检索任务,通过训练更好的跨语言表示,利用小语种单语数据在候选中文数据里,检索到和它语义相同的中文短文句子。该任务提供用于预训练的单语数据、小语种开发集和测试集A/B。

组织者和联系人

任务组织者:胡博杰、姜博健、张通(腾讯信息安全部小语种理解团队); 郭佳华、李豫(北京交通大学NLP实验室); 于雅涵(中科院自动化所智能技术与系统工程团队)

任务联系人:bengiojiang@tencent.com (主送),nlpbojiehu@163.com (抄送),zatozhang@tencent.com (抄送)

任务奖项

中国中文信息学会提供的荣誉证书

任务网址

https://github.com/TenTrans/TenTrans/tree/master/examples/CMXT

任务6:以事件为中心的观点挖掘(ECOM 2022)

任务简介

任务背景

事件是世界的重要组成部分。日常生活中,人们通过表达、分享和传播对事件的观点来交流自己的观念和经验。了解不同角度的事件观点也有助于个人和组织消除对社会问题的偏见,从而更好的做出决策。因此,挖掘以事件为中心的观点对组织和个人都有重要的作用。

然而,观点挖掘领域集中于对实体情感和看法的提取,而针对事件的研究较少。以事件为中心的观点挖掘任务与以实体为中心的观点挖掘任务在定义、结构和表达上都有较大区别。从定义上来说,以事件为中心的观点不仅关注观点的情感极性,而且更多关注非情感的观点,包括判断、预测、建议等。例如,针对事件“上交所暂缓蚂蚁集团上市”,与事件相关的观点比如建议“蚂蚁集团当务之急是按监管部门的要求,切实抓紧整改。”,不能用简单的情感倾向概括。从结构上来说,给定事件短语,人们不仅能表达关于事件本身的观点,同时也能表达针对事件子事件、相关事件以及涉及实体的观点。同样以事件“上交所暂缓蚂蚁集团上市”举例,除事件本身外,人们还可能会表达针对事件子事件“蚂蚁集团上市”和事件参与者“上交所”、“蚂蚁集团”的观点。从表达上来说,以事件为中心的观点对象往往不出现在文章的上下文当中,因此需要从给定的事件短语中提取观点对象。

任务介绍

我们提出了以事件为中心的观点挖掘任务。参赛者被要求从给定的事件短语和相关文档中,提取与事件相关的观点片段及其观点对象。

组织者和联系人

任务组织者:徐若曦、林鸿宇、韩先培、孙乐(中国科学院软件研究所中文信息处理实验室); 廖梦(腾讯微信数据质量组)

任务联系人:徐若曦(ruoxi2021@iscas.ac.cn)

任务奖项

中国中文信息学会提供的荣誉证书

奖金:总计10000元

任务网址

http://e-com.ac.cn/ccl2022.html

任务7:新闻脉络关系检测

任务简介

任务背景

新闻作为一个重要的传播媒介,在揭露事实、传播真相、传递信息等方面有着重要的作用。随着信息时代新闻数量的爆炸式增长,使用计算机技术自动分析新闻并将有价值的信息展示给用户成为了一个重要的研究课题。其中新闻脉络关系检测作为新闻事件发展关联关系的研究任务,目标是从海量、复杂的新闻中得到热点新闻的关联事件,用以辅助用户分析热点事件的起因、经过、结果。同时新闻脉络关系检测在事件预测、事理图谱构建和事件因果分析等下游任务中也具有潜在的应用价值。虽然这一领域已经引起了众多研究者的关注,但是目前该领域的数据集质量仍有待提高。当前新闻脉络数据集规模较小、领域受限,且数据集的内容收集、标注规范、评价指标等方面的内容在学术界并未形成统一的标准。 为了提供高质量的新闻脉络数据资源,清华大学KEG实验室联合华为提出了一个大规模中文故事脉络数据集CStory,它包含15211个新闻事件和112945个人工标注的新闻脉络关系对。该数据集具有较强的挑战性,也为新闻脉络关系检测相关模型提出了更高的要求。本次的评测数据集从CStory中抽样得到。

任务介绍

本次技术评测只有一个任务,即新闻脉络关系检测。给定两个新闻,参赛者需要判断这两个新闻之间是否具有新闻脉络关系。具体的任务定义细节和评测标准详见任务网页。

组织者和联系人

任务组织者:师凯杰、侯磊、李涓子(清华大学知识工程实验室); 肖镜辉、刘群(华为诺亚方舟实验室); 吴敬桐、雍定钰(华为终端云服务部)

任务联系人:师凯杰 (1196479790@qq.com,主送),柳孟阳(619090934@qq.com,抄送)

任务奖项

中国中文信息学会提供的荣誉证书

奖金:总计50000元

任务网址

https://github.com/THU-KEG/CCL2022_Storyline_Relationship_Classification

任务8:“达观杯”汽车工业故障模式关系抽取评测

任务简介

任务背景

汽车工业故障知识图谱帮助汽车及零部件厂商构建质量管控知识库,整合知识经验,辅助质量工程师高效、全面地分析故障。汇聚所有专家的智慧,降低对工程师自身经验的依赖,让资历较浅的工程师也能做好故障分析工作,大幅提升故障分析效率,加速工程师成长。既降低故障发生的几率,也减少故障发生的损失,实现降本增效,提升企业竞争力。

任务介绍

实体抽取和关系抽取是信息抽取的基础任务,面向汽车故障领域的信息抽取对于实现智能化检修和诊断具有重大意义。汽车故障领域案例文本是由维修从业人员撰写的描述汽车功能异常、排查步骤的记录,该记录包括故障现象、故障原因以及排故过程等,故障案例知识的重复利用受到数据结构化程度的影响,因而识别数据中的部件单元、性能表征、故障状态等核心实体及其组合的故障模式关系至关重要。通过从大量故障案例文本抽取出部件单元、性能表征、故障状态等实体及其故障模式,可以为后续故障知识图谱构建和故障智能检修和实时诊断打下坚实基础。本任务需要从故障案例文本自动抽取2种类型的关系和3种类型的实体。关系类型为:部件单元的故障状态、性能表征的故障状态。

组织者和联系人

任务组织者:陈运文、文辉、王文广(达观数据 );王昊奋(同济大学)

任务联系人:王小荻(wangxiaodi@datagrand.com)

任务奖项

中国中文信息学会提供的荣誉证书

奖金:总计20000元

任务网址

https://github.com/wgwang/CCL2022

任务9:高考语文阅读理解可解释评测

任务简介

任务背景

机器阅读理解(Machine Reading Comprehension,MRC)是自然语言处理和人工智能领域的重要前沿课题,对提升机器的智能水平具有重要价值。目前,在众多公开可用数据集的驱动下,机器阅读理解模型取得了令人振奋的进展,但模型所具备的真实语言理解能力与人的期望相差甚远。为了促进机器智能向类人智能迈进,山西大学提出了“高考语文阅读理解可解释评测”任务。该任务不仅对模型的答题准确率进行评价,而且引入两个子任务“支持句识别”和“错误类型识别”对模型的中间推理能力进行评价,此外还提供了答题所需推理能力信息,帮助诊断模型的不足。

任务介绍

具体来说,参赛者需要完成以下3个子任务:

(1)子任务1(问题回答):输出问题答案。

(2)子任务2(支持句识别):输出支持问题解答所需的原文句子,即每个选项对应的原文支持句。

(3)子任务3(错误类型识别):针对错误选项,输出其错误类型。

组织者和联系人

任务组织者:谭红叶、李茹、张虎、孙欣伊、赵云肖、闫智超(山西大学)

任务联系人:孙欣伊(sxy_sxu@163.com)

任务奖项

中国中文信息学会提供的荣誉证书

任务网址

https://github.com/SXUNLP/CCL2022-GCRC

任务10:第五届“讯飞杯”中文机器阅读理解评测(CMRC 2022)

任务简介

任务背景

全国计算语言学学术会议(CCL)自2017年开始举办技术评测,依托CCL首届“讯飞杯”中文机器阅读理解评测(CMRC 2017)成功举办。至今,CMRC系列评测已举办四届,对中文机器阅读理解的不同任务进行了评测,见证了中文机器阅读理解技术的不断发展。

第五届“讯飞杯”中文机器阅读理解评测(CMRC 2022)聚焦的任务是可解释性阅读理解。根据给定一个篇章以及和篇章相关的问题,参赛队伍需要设计一个可以同时抽取答案(或者选择答案)和佐证依据的机器阅读理解系统。本次评测的难点在于组委会并不提供带标注的训练集合。因此,选手需要设计无监督或弱监督的机器阅读理解系统来完成答案和佐证依据的抽取。为了训练机器阅读理解系统,参赛队伍可以使用任何公开数据集的训练集部分以及无标注数据,但不能使用任何未公开数据集以及公开数据集中的开发集和测试集。

任务介绍

根据阅读理解类型分为以下两个赛道:

1)抽取型阅读理解赛道:答案和佐证依据均是篇章中的某个连续片段

2)选择型阅读理解赛道:答案是从若干个候选选项中选出,佐证依据是篇章中的某个连续片段

关于详细的任务说明和设置请查看评测官网。

组织者和联系人

任务组织者:崔一鸣(哈工大&科大讯飞); 车万翔(哈工大)

任务联系人:cmrc2022@126.com

任务奖项

中国中文信息学会提供的荣誉证书

奖金:总计36000元

任务网址

http://cmrc2022.hfl-rc.com

任务11:航旅纵横-领域知识问答测评(UMETRIP-QA)

任务简介

任务背景

智能问答与检索作为自然语言处理的重要应用,在学术研究与工业应用中均受到了广泛的关注。智能问答应用中,基于问题与答案对的检索式问答应用广泛。各类问答平台的智能客服通过收集高频问题和对应答案形成问答知识库,再通过检索式问答方法提供准确的问询服务。同时,互联网上存在着大量的非结构化或半结构化网页文本数据未被充分利用,若能从这些数据中自动提取出问题和答案对数据形成知识库,将为检索式问答提供极大助力。

本次测评任务中,针对民航出行领域应用场景特点与数据基础,探索基于检索、匹配和阅读理解等技术实现从民航相关网页的文本数据中精准抽取出的问题和答案对的方法。有助于更好地组织管理民航领域常用知识,为用户提供更好的问询服务;此外也为问答知识库构建在其他领域的实践应用提供相关思路,探索垂直领域内的问答知识库构建范式。

任务介绍

该测评分为三个子任务:

子任务一:篇章级答案检索

子任务二:段落级答案抽取

子任务三:细粒度文本级答案抽取

详细任务介绍、数据形态与测评方式可访问测评页面查看。

组织者和联系人

任务组织者:王殿胜(中航信移动科技有限公司); 籍焱(中航信移动科技有限公司); 张日崇(北京航空航天大学)

任务联系人:张存旺(zhangcw@act.buaa.edu.cn)、贾泓昊(hhjia@travelsky.com.cn)、聂志捷(niezj@act.buaa.edu.cn)、王俊凯(wangjk@act.buaa.edu.cn)

任务奖项

中国中文信息学会提供的荣誉证书

奖金:总计60000元

任务网址

https://github.com/BDBC-KG-NLP/CCL2022-DQAB

任务12:第四届“小牛杯”幽默计算——聊天机器人幽默感挑战赛

任务简介

任务背景

近年来虽然智能聊天对话机器人取得了大量的优秀研究成果,且已被广泛应用于诸多实际领域之中,但对于机器人系统的智能性评估仍处于起步阶段。本次评测在对话场景下从幽默理解与幽默生成两个角度评估聊天机器人的“幽默感”。

任务介绍

该评测任务分为两个子任务:

子任务一:对话情景下的幽默识别

子任务二:对话场景下的幽默回复生成

组织者和联系人

任务组织者:杨亮、林鸿飞(大连理工大学信息检索研究室)

任务联系人:李泽锋、张童越、张新昀、刘旭东(irlab@dlut.edu.cn)

任务奖项

中国中文信息学会提供的荣誉证书

奖金:总计20000元

任务网址

http://cips-cl.org/static/CCL2022/cclEval/humorcomputation/index.html

任务13:基于前提的跨模态推理评测(PMR 2022)

任务简介

任务背景

在视觉与语言的跨模态推理方向上,常见做法是给定图片形式的事件和文本形式的问题,让机器在多个备选答案中选择符合图片内容的答案。我们认为过去的这类研究属于 "无条件"的跨模态推理,即对图像没有指定任何先验知识,而在实际场景中,却往往不是如此。认知心理学中的ABC理论(Ellis,1995)表明,人类的情绪和由此产生的行为并不直接来自于特定事件,而是来自于特定前提下对事件的解读。受此启发,我们提出了一个"基于前提的跨模态推理"任务(PMR)。在这个任务中,我们为相同图片提供了不同的前提背景信息(文本形式),要求模型先根据背景信息解读图片,再正确回答文本形式的问题。PMR的数据集包含15,360个人工标注的[前提+图片+问题] —— [答案]配对,每个样本都经过了多阶段的众包标注和审核,该任务以高质量的数据为机器跨模态推理提出了更高的挑战。

任务介绍

基于前提的跨模态推理评测设置为单个主任务,每一张图片配有一条文本形式的前提句和问句,以及四个可能的选项,模型需要基于前提线索理解图片,再从四个选项中选择唯一符合问题和图片的答案。

组织者和联系人

任务组织者:穗志方、詹卫东、常宝宝、李素建(北京大学); 魏忠钰(复旦大学)

任务联系人:董青秀、秦梓巍、夏鹤明等(corlder@outlook.com)

任务奖项

中国中文信息学会提供的荣誉证书

奖金:总计30000元

任务网址

https://2030nlp.github.io/PMR/evaluation.html

任务14:视频看点抽取

任务简介

任务背景

视频信息相比于文本信息更加直观且丰富,但是其无法像文本一样快速浏览并定位某个具体内容,因此为了帮助用户快速理解视频内容,提升用户体验,视频看点提取任务应运而生。视频看点是指对视频片段内容的概括,通过短句总结概括视频中各个片段的主题。所有看点构成视频内容大纲,让用户可以直观、快速地理解视频的主要内容。

任务介绍

本任务会给出视频、视频标题、视频字幕,要求基于提供的信息提取出视频的所有看点,并给出所有看点的起始时间和看点摘要。

组织者和联系人

任务组织者:谢文睿、苑霸、李远杭(百度内容策略部)

任务联系人:谢文睿(xiewenrui01@baidu.com)

任务奖项

中国中文信息学会提供的荣誉证书

奖金:总计20000元

任务网址

https://aistudio.baidu.com/aistudio/competition/detail/304/0/introduction

二、技术评测总体时间安排

  • 任务征集截止:2022年5月10日
  • 评测任务发布:2022年5月31日
  • 总体评测时间:2022年6月1日—2022年9月31日,各评测任务报名、评审等具体安排请关注各个评测任务网站。
  • CCL 2022评测研讨会:2022年10月14日—2022年10月16日

有任何问题请与任务组织者或评测主席联系。

CCL2022评测主席:

林鸿飞,大连理工大学

李正华,苏州大学