隨著深度學習的迅猛發展,計算機視覺、自然語言處理等一系列領域的算法性能都有了跨越式的進展。深度學習算法在學術界已經普遍應用,但在工業界卻還沒得到非常廣泛的應用,其中一個重要原因就是深度學習網絡的模型龐大、計算量巨大。一個卷積神經網絡的權重文件動輒數百兆,儘管目前智慧型手機的性能已經非常優秀,但是要在應用中塞入上百兆的權重也是一個很不明智的選擇;另一方面,在一些嵌入式的平台上,存儲計算資源都十分有限,深度學習算法的移植更加困難。所以深度學習模型的壓縮,是非常重要的一個問題。
現有的神經網絡壓縮方法主要包括:淺層網絡、剪枝網絡、緊湊網絡、對參數進行離散化處理等。其中剪枝網絡是指 對網絡進行剪裁,以及對一些不攜帶有效信息的權重進行過濾,使用裁剪後的參數再重新對網絡訓練。
本周四晚8點,我們特別邀請到北京大學信息科學技術學院三年級博士生-唐業輝,作客AI研習社NeurIPS2020系列論文解讀直播間,為大家詳細介紹他被收錄的論文情況。嘉賓分享完還有問答環節,歡迎大家積極參與討論,一起探討《神經網絡小型化: 基於科學控制法的網絡剪枝》。
分享主題:
《神經網絡小型化: 基於科學控制法的網絡剪枝》
分享時間:
2020年12月3日(周四)20:00-21:00
分享嘉賓:
唐業輝
北京大學信息科學技術學院三年級博士生,已有多篇文章被CVPR、AAAI等會議接收,研究內容包括深度神經網絡正則化方法、模型壓縮和網絡結構搜索等。
分享背景
分享提綱
1、神經網絡壓縮技術的背景和現狀
2、基於科學控制法的神經網絡剪枝方法(NeurIPS 2020)
3、訓練樣本不足時的網絡剪枝策略 (AAAI 2020)
論文地址
https://papers.nips.cc/paper/2020/hash/7bcdf75ad237b8e02e301f4091fb6bc8-Abstract.html
直播間觀看地址
AI研習社直播間:https://live.yanxishe.com/room/886
掃碼添加小助手微信,回復【NIPS】進入NeurIPS2020論文交流群
點擊「閱讀全文」,進入直播間預約,避免錯過精彩分享!