原標題:Call for Papers丨KDD 2021 預訓練研討會,唐傑教授領銜
在過去的幾年裡,預訓練在各種領域都取得了巨大的成功,像是自然語言處理、計算機視覺、語音識別和圖形學習。
預訓練的前景是利用輸入數據本身作為學習模型的監督信號,這些模型可以和具有專門標籤信息的技術一樣強大。換句話說,它不需要特定任務的標籤數據,而要大規模地獲得這些數據往往是非常昂貴的。
儘管它在文本和圖像數據集的任務中表現突出,但仍有許多預訓練的問題沒有解決。
本次研討會將集中在介紹和討論預訓練領域的最先進技術、開放問題、挑戰和最新的模型、預訓練領域的技術和算法,涵蓋算法、架構和應用等方面。在此背景下,感興趣的話題包括但不限於:
- Pretraining theories on generalization, optimization and transferability;
- Pretraining analysis for interpretability and knowledge;
- Pretraining with high-performance computing (HPC);
- Novel Pretraining Algorithms and Architectures;
- Generative pretraining;
- Contrastive pretraining;
- Pretraining for graphs and networks;
- Pretraining for multi-language;
- Pretraining for multi-modality;
- Cognitive-oriented Pretraining;
- Pretraining applications;
歡迎各位老師同學投稿和參與。
研討會主頁:https://www.aminer.cn/billboard/pretrain_kdd2021
研討會組織者
閱讀原文,了解投稿詳情!