“第二十三届中国计算语言学大会”(The Twenty-third China National Conference on Computational Linguistics, CCL 2024)将于2024年7月25-29日在山西太原举行,会议由中国中文信息学会计算语言学专业委员会主办,山西大学承办。
中国计算语言学大会创办于1991年,由中国中文信息学会计算语言学专业委员会主办。经过30余年的发展,中国计算语言学大会已成为国内自然语言处理领域权威性最高、规模和影响最大的学术会议。作为中国中文信息学会的旗舰会议,CCL 聚焦于中国境内各类语言的智能计算和信息处理,为研讨和传播计算语言学最新学术和技术成果提供了最广泛的高层次交流平台。
本次大会由清华大学孙茂松教授、山西大学梁吉业教授担任大会主席。
会议将于7月26日组织3场专题论坛,分别是从语言大模型到代码大模型专题论坛、多模态大模型专题论坛和大模型智能体专题论坛。
语言大模型到代码大模型专题论坛中,北京理工大学教授刘辉、北京航空航天大学教授石琳、微软亚洲研究院研究员卢帅、香港大学助理教授余涛、哈尔滨工业大学助理教授朱庆福和aiXcoder首席运营官李力行将进行专题报告,由哈尔滨工业大学长聘教授车万翔和北京大学长聘教授李戈主持;
多模态大模型专题论坛中,智源研究院视觉模型研究中心负责人王鑫龙、腾讯高级研究科学家曾爱玲、南方科技大学讲席教授荆炳义和香港中文大学(深圳)助理教授王本友将进行专题报告,由复旦大学副教授魏忠钰和香港中文大学(深圳)助理教授王本友主持;
大模型智能体专题论坛中,中国人民大学高瓴人工智能学院准聘副教授陈旭、清华大学智能产业研究院副研究员/副教授李鹏、电子科技大学计算机学院特聘研究员高莘、清华大学软件学院博士钱忱、中国科学院自动化研究所副研究员张海峰和浙江大学副教授张宁豫将进行专题报告,由北京航空航天大学副教授陶重阳主持。
大会已经开启注册,期待与各位学者的相遇!
网站:http://cips-cl.org/static/CCL2024/index.html
从语言大模型到代码大模型专题论坛
主持人:车万翔
哈尔滨工业大学 车万翔
简介:车万翔,哈尔滨工业大学计算学部长聘教授/博士生导师,人工智能研究院副院长,国家级青年人才,龙江学者“青年学者”,斯坦福大学访问学者。现任中国中文信息学会理事、计算语言学专业委员会副主任兼秘书长;国际计算语言学学会亚太分会(AACL)执委兼秘书长。承担国家自然科学基金重点项目、2030“新一代人工智能”重大项目课题等多项科研项目。著有《自然语言处理:基于预训练模型的方法》一书。曾获AAAI 2013最佳论文提名奖。负责研发的语言技术平台(LTP)已授权给百度、腾讯、华为等公司付费使用。2016年获黑龙江省科技进步一等奖(排名第2),2020年获黑龙江省青年科技奖。
主持人:李戈
北京大学 李戈
简介:李戈,北京大学长聘教授,博士生导师,国家级高层次人才。长期聚焦于程序理解、程序生成、深度学习等技术的研究,是国际上最早从事“基于深度学习的程序理解与生成”研究并取得代表性成果的研究者,在多个国内外顶级会议与期刊发表相关论文50余篇,多篇论文被国际学者认为是“开创性成果”,并被广泛引用,多次获ACM杰出论文奖。在软件与人工智能领域的多个国际会议担任程序委员会共同主席与PC。曾获教育部科技进步一等奖,CCF科技发明一等奖,北京市科技发明二等奖,中创软件人才奖。教学课程被首批认定为“国家级一流线下课程”和“国家级一流线上课程”,并多次获省部级教学奖。科研转化成果aiXcoder为航天领域的重大工程、金融与IT领域的多家大型企业及数十万国际开发者提供服务。
讲者1:刘辉
北京理工大学 刘辉
题目:基于大模型的代码重构与优化
摘要:探讨大模型技术在代码优化方面的潜力与挑战,分析比较基于大模型的代码生成与代码优化的难点和差异,剖析大模型技术在代码优化领域的前景。以软件重构为例探索基于大模型的代码自动优化,探讨其中面临的关键技术挑战以及潜在的应对策略。
讲者:刘辉,北京理工大学教授,CCF软件工程专委会秘书长。长期从事软件开发环境方面的研究工作,在ICSE、ESEC/FSE、ASE、ISSTA、IEEE TSE、ACM TOSEM等发表三十余篇学术论文,部分成果被Eclipse等主流IDE采纳集成。获得ESEC/FSE 2023杰出论文奖、ICSE 2022杰出论文奖、RE 2021最佳论文奖、IET Premium Award (2016) 。
讲者2:石琳
北京航空航天大学 石琳
石琳,北京航空航天大学教授,CCF高级会员。研究方向为智能软件工程,包括代码智能、智能需求工程、开源软件、可信AI等。曾在人工智能、软件工程领域的高水平国际会议IJCAI,ICSE,FSE,ASE等发表论文50余篇,三次获得杰出论文奖:ACM SIGSOFT 杰出论文奖(ASE21)、连续两次获国际需求工程大会杰出论文奖(RE21,RE20)。主持参与多项国家项目、头部重点企业合作项目。同时担任多个国际知名会议期刊包括ICSE、ASE、FSE、TOSEM期刊等审稿人。
讲者3:卢帅
微软亚洲研究院 卢帅
题目:可信代码生成
摘要:近年来,大语言模型已经展示出卓越的代码生成能力。然而,大模型并不能保证生成代码的准确性,尤其是对于较为复杂的算法实现或是工程代码,通常很难在一次尝试中生成正确的程序。为了解决这一问题,报告将介绍如何在大模型时代下引入软件工程领域的程序测试或形式化验证等方式,借助大模型强大的生成能力,让大模型自我验证,从而提高代码生成的可信度。另一方面,报告也关注如何利用大模型将程序的形式化验证过程自动化,从理论证明的角度验证代码可靠性。
讲者:卢帅,微软亚洲研究院研究员,2021年毕业于北京大学,研究领域为代码智能和自然语言处理,致力于用深度学习技术实现软件开发自动化,赋能程序开发者。主要研究专注于代码自动补全、代码生成、程序语言预训练模型等,研究成果发表于NeurIPS、ICLR、ACL、ICSE、FSE等人工智能与软件工程学术会议,谷歌学术引用量三千余次。
讲者4:余涛
香港大学 余涛
题目:OSWorld:在真实计算机环境中对开放式任务的多模态代理进行基准测试
摘要:由于视觉-语言模型(VLMs)的进步,自主数字代理的出现有望彻底改变人机交互,提高可访问性和生产力。这些多模态代理可以在不同环境中自主地进行复杂的推理、决策和多步骤行动计划。在本次演讲中,我将主要介绍OSWorld,这是一个专门被设计用于推动开发能够在各种操作系统、界面和应用程序中执行广泛数字任务的代理的真实计算机环境。我将分享关于在OSWorld环境中执行开放式任务的尖端VLMs的见解。我还将介绍在这一方向上的一些其他最新工作,包括用于多样环境适应的指令微调检索器,以及通过工具集成增强LLM能力。演讲将以对这个迅速发展领域的当前和未来研究前景的探讨结束。
讲者:余涛,香港大学计算机科学助理教授,主要研究方向是自然语言处理。他在耶鲁大学获得博士学位,并在华盛顿大学UWNLP担任博士后研究员。他的研究目标是构建能将语言指令转化为可在现实环境中执行的代码或动作的语言模型代理,包括数据库、网络应用和物理世界等。这是下一代自然语言界面的核心,可以通过对话与现实世界互动并学习,促进人类与数据分析、网络应用和机器人指令的交互。他曾获得谷歌研究学者奖和亚马逊研究奖。
讲者5:朱庆福
哈尔滨工业大学 朱庆福
题目:多语言代码大模型
摘要:近年来,代码大模型技术蓬勃发展,带动了更多种类的编程语言数据向大模型的汇集,进而推动了代码生成任务由单编程语言向多编程语言的扩展。与此同时,由于全球95%人口的母语为非英语的自然语言,进一步将代码生成任务扩展至多自然语言同样至关重要。为此,本报告将对比代码大模型在多种编程语言、多种自然语言之间的性能差异,介绍提升低资源语言性能的方法,以及充分利用代码大模型的多语言能力提升下游任务表现的尝试。
讲者:朱庆福,哈尔滨工业大学助理教授,美国加州大学圣塔芭芭拉分校联合培养博士。主要研究方向为自然语言处理,代码生成。在自然语言处理领域发表论文多篇,包括国际顶级会议ACL、AAAI、EMNLP等。主持及参与国家自然科学基金项目、科技创新2030-“新一代人工智能”重大项目多项。
讲者6:李力行
aiXcoder 李力行
题目:基于aiXcoder代码大模型的智能化软件开发应用实践
摘要:软件研发领域的基于大模型的智能化,是当前软件开发技术与工具的关注热点和发展趋势,越来越多的企业对于基于代码大模型的智能化软件研发应用有强烈需求,但同时也面临诸多挑战。aiXcoder团队在该领域的探索和实践已有10年时间,是基于AI的智能化开发领域的开拓者和推动者。本报告将围绕基于大模型的软件开发技术与范型,汇报aiXcoder在代码大模型领域的最新进展,分享aiXcoder在代码大模型企业落地实践方面的一些探索与思考。
讲者:李力行, aiXcoder首席运营官,北大/中科院数学所计算机软件与理论博士,曾任阿里优酷搜索团队算法负责人、医疗AI创业公司联合创始人及CIO,有15年以上AI算法研究和团队管理经验。长期从事人工智能应用相关工作,当前负责aiXcoder智能化软件开发系统的产研和应用落地。
多模态大模型专题论坛
主持人:魏忠钰
复旦大学 魏忠钰
简介:魏忠钰,副教授,博士生导师,复旦大学数据智能与社会计算实验室(Fudan DISC)负责人,香港中文大学博士,美国德州大学达拉斯分校博士后。现任中文信息学会情感计算专委会副秘书长,社交媒体处理专委会常务委员兼秘书,青年工作委员会执行委员。在自然语言处理、人工智能领域的国际会议、期刊如CL、ACL、SIGIR、EMNLP、ICML、ICLR、AAAI、IJCAI等发表学术论文80余篇。担任多个重要国际会议及期刊评审,是EMNLP 2020多模态领域主席,EMNLP 2021论辩挖掘领域主席。入选上海市启明星计划、青年扬帆计划,获得中国中文信息学会社会媒体处理新锐奖、华为技术优秀成果奖等。主要研究方向是自然语言处理、机器学习和社会媒体处理,专注于结合语言和视觉的多模态信息理解和生成、论辩挖掘和交叉学科应用研究。
主持人:王本友
香港中文大学(深圳) 王本友
简介:王本友,香港中文大学(深圳)数据科学学院助理教授,深圳大数据研究院研究科学家。迄今,他曾获SIGIR 2017最佳论文提名奖、NAACL 2019最佳可解释NLP论文、NLPCC 2022最佳论文、华为火花奖、腾讯犀牛鸟项目等。他还曾担任NLPCC 2023宣传主席、EMNLP 2023网站主席。他带领的研究团队开发的大模型包括医疗健康垂直领域大模型华佗GPT、阿拉伯语大语言模型AceGPT。
讲者1:王鑫龙
智源研究院视觉模型研究中心 王鑫龙
题目:生成式多模态模型
摘要:人类具备在上下文中轻松解决多模态任务的能力(即,只需少量示例或简单指令),这是当前多模态系统难以模仿的。大语言模型展现了生成式预训练带来的强大语言能力,然而对于复杂多样的多模态任务仍显局限。这个报告将介绍的大规模生成式多模态模型使得我们能够以统一模型完成多模态感知和生成任务。重点介绍多模态生成式预训练和多模态上下文学习的最新技术,旨在提升模型在多模态上下文中解决复杂感知和生成任务的能力。
讲者:王鑫龙, 智源研究院视觉模型研究中心负责人。本科毕业于同济大学,博士毕业于澳大利亚阿德莱德大学,师从沈春华教授。他的研究兴趣是计算机视觉和基础模型,近几年研究工作包括视觉感知(SOLO、SOLOv2),视觉表征(DenseCL、EVA),视觉上下文学习(Painter、SegGPT),多模态表征(EVA-CLIP、Uni3D),多模态上下文学习(Emu、Emu2)。入选Google PhD Fellowship、国家海外高层次青年人才。
讲者2:曾爱玲
腾讯 曾爱玲
题目:以人为中心的多模态感知、理解和生成
摘要:从任意视频中捕捉和理解富有表现力的人体动作是计算机视觉、人机交互和可控生成中的基本且重要的任务。与面向专业用户的高成本可穿戴动作捕捉设备不同,我们为每个输入图像或视频的用户开发了一系列无标记动作捕捉技术,这也使得动作配对数据可扩展、低成本和多样化。在本次演讲中,我将重点介绍如何构建大规模以人为中心的数据和基准,包括 i) 从互联网数据中自动注释多模态数据,如动作、图像、视频、文本、音频等,ii) 通过LLM从视频中理解人体动作,iii) 可控的2D到4D以人为中心的生成。
讲者:曾爱玲博士是腾讯的高级研究科学家。此前,她曾就职于IDEA研究院,领导以人为中心的感知、理解和生成研究团队。她在香港中文大学获得博士学位。她的研究目标是在可扩展的大数据上构建多模态类人智能代理,尤其是用于捕捉、理解、交互和生成人类、动物和世界的运动的大型运动模型。她在 CVPR、ICCV、NeurIPS等顶级会议发表了三十多篇论文,她的一篇长期时间序列预测的第一作者论文入选AAAI 2023影响力前三名论文。她的研究成果已转移或用于应用产品,例如用于可控生成的ControlNet ComfyUI中的DW-Pose和用于监控区域的AnyVision中的SmoothNet。
讲者3:荆炳义
南方科技大学 荆炳义
题目:如何实现大模型训练中的数据自适应选择
摘要:目前,大模型的训练通常需要使用互联网级别的海量数据。然而,Scaling Law表明,数据质量对模型性能至关重要。因此,如何从这些海量数据中筛选出高质量的样本成为一个关键问题。为了解决这一挑战,我们从底层训练框架出发,重新设计了数据在训练过程中的生命周期。这使得我们能够在训练的不同阶段引入不同的数据选择策略,以便模型能够选择最适合的数据。此外,我们还实现了一种基于学习的探索策略,使得模型能够自主进行数据筛选,从而进一步提高训练效率和模型性能。这些改进优化了数据筛选过程,同时为大模型训练提供了更加灵活和智能的解决方案。这项研究不仅在理论上具有重要意义,也在实际应用中展现出巨大的潜力,为未来的大规模模型训练开辟了新的方向。
讲者:荆炳义,南方科技大学统计与数据科学系讲席教授,国家特聘专家,国家自然科学奖二等奖, 教育部长江学者讲座教授,教育部高等学校自然科学奖二等奖,美国统计学会会士 (ASA Fellow),数理统计学会会士 (IMS Fellow),国际统计学会当选会士 (ISI Elected Member),中国现场统计学会多元分析委员会理事长。先后分别担任Ann Appl Probab, JBES, 《中国科学》等七家国际学术期刊副主编。研究兴趣包括:概率统计、计量经济、网络数据、强化学习、及生物信息等领域。在Annals of Statistics、Annals of Probability、Journal of American Statistical Association、Journal of Royal Statistical Society Series B、Biometrika, Journal of Econometrics、Journal of Business and Economic Statistics、Bioinformatics,Journal of Machine Learning Research、《中国科学》、NeurIPS等顶级期刊及顶会发表论文110余篇。与产业界合作紧密,于2023年获华为“火花奖”。
讲者4:王本友
香港中文大学(深圳) 王本友
题目:长上下文的多模态大模型
摘要:多模态大模型的开发高度依赖数据和应用场景。本报告将首先介绍我们在数据方面的探索,包括高质量通用多模态图文对齐数据集ALLaVA-4V、通用长尾视觉知识的补充数据集Iceberg-500K以及医学多模态知识数据集。此外,我们将探索具有更长上下文的多模态大模型,并介绍我们团队发布的相关基准MileBench。此外,我们将讨论我们的长上下文多模态大模型的细节及其在处理更长上下文(包括高分辨率图像和长视频)中的应用。
讲者:王本友,香港中文大学(深圳)数据科学学院助理教授,深圳大数据研究院研究科学家。迄今,他曾获SIGIR 2017最佳论文提名奖、NAACL 2019最佳可解释NLP论文、NLPCC 2022最佳论文、华为火花奖、腾讯犀牛鸟项目等。他还曾担任NLPCC 2023宣传主席、EMNLP 2023网站主席。他带领的研究团队开发的大模型包括医疗健康垂直领域大模型华佗GPT、阿拉伯语大语言模型AceGPT。
大模型智能体专题论坛
主持人:陶重阳
北京航空航天大学 陶重阳
简介:陶重阳,北京航空航天大学副教授。2020年获得北京大学理学博士学位,后加入微软工作,历任博士后研究科学家和高级研究科学家。研究方向为自然语言处理和信息检索,主要关注语言模型、对话系统、高效知识检索等领域,参与了微软小冰(Rinna)、必应聊天助手、必应生成/搜索模型以及WizardLM系列模型的研发。曾在ACL、EMNLP、AAAI、ICLR、SIGIR、TOIS等国际会议及期刊上发表论文70余篇。曾获得NLPCC杰出论文奖、AI 2000学者称号,担任KDD、EMNLP、CCKS等国内外学术会议的领域主席。
讲者1:陈旭
中国人民大学 陈旭
题目:基于大语言模型智能体的用户行为模拟
摘要:近年来,Human-centered AI受到了学术界和产业界的广泛关注,该领域的应用如推荐系统、社交网络等给人们的生活生产带来了极大的便利。然而,一直以来,制约该领域发展的关键问题之一是如何获取高质量的用户行为数据。在本次报告中,汇报者将从LLM-based Agent的角度分享缓解该问题的思路,并介绍其团队研发的基于大语言模型的用户行为模拟智能体RecAgent。该工作模拟了用户在推荐系统、社交网络中的多种行为,每个用户是一个Agent,不同Agents可以在模拟环境中自由对话、发帖、搜索、自我进化等。汇报者将详细介绍RecAgent的设计初衷、结构特点、使用方法以及实验评测等。最后,汇报者将介绍RecAgent对未来Human-centered AI领域的潜在影响。
讲者:陈旭,中国人民大学高瓴人工智能学院准聘副教授,博士毕业于清华大学。他的研究方向为大语言模型、因果推断、推荐系统等。曾在TheWebConf、SIGIR、KDD等著名国际会议/期刊发表多篇论文,Google Scholar引用5800余次,入选斯坦福大学全球前2%顶尖科学家榜单。同时,他也担任多个顶级会议和期刊的审稿人。
讲者2:李鹏
清华大学 李鹏
题目:面向开放域的大模型智能体
摘要:大模型为人工智能的发展带来颠覆式创新,如何利用好大模型以解决开放域问题成为大模型发展下一阶段的关键议题。近期的学术研究和工业实践表明,以大模型为基础的智能体(简称大模型智能体)是将大模型推向开放域的重要技术路径,具有重大研究和应用前景。本报告将围绕大模型智能体走向开放域所面临的主要挑战、创新思路和未来发展方向进行分享交流。
讲者:李鹏,清华大学智能产业研究院(AIR)副研究员/副教授,主要研究兴趣包括自然语言处理、预训练语言模型、跨模态信息处理、大模型智能体等,在人工智能重要国际会议与期刊发表论文90余篇,曾获ACL 2023杰出论文奖,曾在多个国际上深具影响力的榜单上超过Google Research、OpenAI等团队获得第一名,主持科技创新2030重大项目课题、国家自然科学基金面上等科技项目,曾任NAACL、COLING、EACL、AACL等重要国际会议领域主席等。研究成果在百度、腾讯微信等千万级日活产品中获得应用并取得显著成效,获得中国中文信息学会钱伟长中文信息处理科学技术奖一等奖。
讲者3:高莘
电子科技大学 高莘
题目:基于大模型的智能体工具学习
摘要:基于大规模语言模型的智能体研究是近期自然语言处理领域中一个新兴的研究方向,该领域的研究也推动了通用人工智能的进一步发展。本报告将围绕语言模型智能体的工具调用能力构建展开,探讨语言模型智能体工具使用基础能力的构建方法以及如何将其应用在更多的下游任务上。
讲者:高莘,电子科技大学计算机学院研究员、博士生导师,主要研究方向为预训练语言模型、大模型智能体和工具学习;在国际顶级会议期刊发表文章40余篇;目前担任中国中文信息学会青年工作委员会委员、信息检索专委会通讯委员,担任若干顶级会议的领域主席和高级程序委员会委员。
讲者4:钱忱
清华大学 钱忱
题目:大模型驱动的多智能体协同初探
摘要:大模型驱动的群体协同旨在创建一个多智能体构筑的数字孪生系统,使其在人类用户提出的具体任务需求下,通过智能体交互式协同来自主生成完整的解决方案。这一方向实现了高效和经济的推理过程,为自动化解决复杂问题提供了全新的可能性,相关技术有望有效地将人力从传统繁重劳动中解放出来,实现“智能体协助人类工作”的美好愿景。本报告将基于大模型多智能体协同的关键技术,介绍交互、协同、演化等方面的技术进展,并初步探究协同缩放法则,以指导构建高效的多智能系统。
讲者:钱忱,清华大学计算机系博士后,清华大学水木学者,主要研究方向为预训练模型、自主智能体、群体智能;合作导师为孙茂松和刘知远教授,曾在人工智能、信息管理、软件工程等相关的国际学术会议或期刊上以第一作者身份发表论文数篇。在群体智能方面,主持发布了大语言模型驱动的群体协作框架ChatDev、群体协同网络MacNet。其中ChatDev在世界影响力最大的开源平台Github上获得超过两万颗星标,受到了国内外众多知名学者和企业的高度评价,人工智能和机器学习领域国际上最权威的学者吴恩达于2024年3月发表智能体方面的最新趋势与洞察,把ChatDev作为唯一代表性案例进行了重点论述。
讲者5:张海峰
中国科学院自动化研究所 张海峰
题目:大语言模型驱动的博弈智能体
摘要:博弈智能体是人工智能发展的一条重要线索。大语言模型的出现,为博弈智能体的构建提供了一条新的思路。以大语言模型为基座,在其上嫁接专用博弈策略,可以较低成本地构建具备一定通用能力的博弈智能体。报告将介绍该方法在星际争霸、足球游戏、社会经济等虚拟和现实博弈场景下的应用探索。
讲者:张海峰,中国科学院自动化研究所副研究员,群体决策智能团队负责人。于北京大学计算机系获得本科、博士学位,曾在英国伦敦大学学院(UCL)从事博士后研究工作。致力于多智能体和强化学习的学术研究和平台研发工作,相关论文发表在ICML、IJCAI、AAAI、AAMAS、《软件学报》等国内外知名学术会议、期刊,主持研发中科院自动化所“及第”智能体博弈平台(www.jidiai.cn),承担国家自然科学基金、科技部“新一代人工智能”重大项目、中国科学院先导A类项目等多项课题,所做研究应用于博弈智能体、油气产业链调度、铁路运行图调整等多个领域。
讲者6:张宁豫
浙江大学 张宁豫
题目:从知识编辑的视角看智能体进化
摘要:大模型智能体进化是一个通过不断积累和优化知识来提高智能体能力的过程。在这一过程中,智能体通过交互、学习和自我改进,逐步完善其知识库和决策能力。本次报告将从知识编辑的视角来阐述智能体记忆更新和能力进化的过程,并介绍符号和参数知识增强智能体的相关工作,最后展望通过知识编辑操作不断修正和扩展智能体的知识结构,实现在动态环境中保持适应性和灵活性,更好地理解复杂任务,提升问题解决能力。
讲者:张宁豫,浙江大学副教授,浙江大学启真优秀青年学者,在高水平国际学术期刊和会议上发表多篇论文,6篇入选Paper Digest高影响力论文,1篇被选为Nature子刊Featured Articles。主持国家自然科学基金、计算机学会、人工智能学会多个项目,获浙江省科技进步二等奖,IJCKG最佳论文/提名2次,CCKS最佳论文奖1次, 担任ACL、EMNLP领域主席、ARR Action Editor、IJCAI高级程序委员,主持开发大语言模型知识编辑工具EasyEdit(1.6k)。
CCL2024大会注册信息
会议安排:
- 2024年7月25日:讲习班
- 2024年7月26日:专题论坛、学生研讨会
- 2024年7月27-29日:主会议
会议注册:
- 注册网址:http://cips-cl.org/static/CCL2024/cclRegistration/registration/index.html
- 查询会员:https://www.cipsc.org.cn/Memberinquiry/index.aspx
- 注册会员:https://www.cipsc.org.cn/Register.aspx
注:
- 会议期间食宿、交通费用自理;中国中文信息学会会员缴费:学生会员50元/人;专业会员200元/人。
- 退款说明:因财务系统试运行中,已缴纳注册费暂不支持退款,可以抵用学会其他会议注册费,感谢理解!
- 每篇被正式录用的会议论文必须至少有一名作者注册主会议。
会议酒店及交通
会议地址:山西潇河国际会议中心
酒店预订方式:请扫码通过CCL 2024酒店预定系统进行预定
- 会务、住宿、交通等问题,可邮件联系:ccl_2024@163.com
- 张老师:15536602009
- 王老师:13453145789
- 方老师:13643454755