Call for Papers丨KDD 2021 预训练研讨会,唐杰教授领衔

2021-06-04   AI科技评论

原标题:Call for Papers丨KDD 2021 预训练研讨会,唐杰教授领衔

在过去的几年里,预训练在各种领域都取得了巨大的成功,像是自然语言处理、计算机视觉、语音识别和图形学习。

预训练的前景是利用输入数据本身作为学习模型的监督信号,这些模型可以和具有专门标签信息的技术一样强大。换句话说,它不需要特定任务的标签数据,而要大规模地获得这些数据往往是非常昂贵的。

尽管它在文本和图像数据集的任务中表现突出,但仍有许多预训练的问题没有解决。

本次研讨会将集中在介绍和讨论预训练领域的最先进技术、开放问题、挑战和最新的模型、预训练领域的技术和算法,涵盖算法、架构和应用等方面。在此背景下,感兴趣的话题包括但不限于:

  1. Pretraining theories on generalization, optimization and transferability;
  2. Pretraining analysis for interpretability and knowledge;
  3. Pretraining with high-performance computing (HPC);
  4. Novel Pretraining Algorithms and Architectures;
  5. Generative pretraining;
  6. Contrastive pretraining;
  7. Pretraining for graphs and networks;
  8. Pretraining for multi-language;
  9. Pretraining for multi-modality;
  10. Cognitive-oriented Pretraining;
  11. Pretraining applications;

欢迎各位老师同学投稿和参与。

研讨会主页:https://www.aminer.cn/billboard/pretrain_kdd2021

研讨会组织者

阅读原文,了解投稿详情!