原标题:Call for Papers丨KDD 2021 预训练研讨会,唐杰教授领衔
在过去的几年里,预训练在各种领域都取得了巨大的成功,像是自然语言处理、计算机视觉、语音识别和图形学习。
预训练的前景是利用输入数据本身作为学习模型的监督信号,这些模型可以和具有专门标签信息的技术一样强大。换句话说,它不需要特定任务的标签数据,而要大规模地获得这些数据往往是非常昂贵的。
尽管它在文本和图像数据集的任务中表现突出,但仍有许多预训练的问题没有解决。
本次研讨会将集中在介绍和讨论预训练领域的最先进技术、开放问题、挑战和最新的模型、预训练领域的技术和算法,涵盖算法、架构和应用等方面。在此背景下,感兴趣的话题包括但不限于:
- Pretraining theories on generalization, optimization and transferability;
- Pretraining analysis for interpretability and knowledge;
- Pretraining with high-performance computing (HPC);
- Novel Pretraining Algorithms and Architectures;
- Generative pretraining;
- Contrastive pretraining;
- Pretraining for graphs and networks;
- Pretraining for multi-language;
- Pretraining for multi-modality;
- Cognitive-oriented Pretraining;
- Pretraining applications;
欢迎各位老师同学投稿和参与。
研讨会主页:https://www.aminer.cn/billboard/pretrain_kdd2021
研讨会组织者
阅读原文,了解投稿详情!