神經網絡壓縮:基於科學控制法的網絡剪枝方法

2020-12-02     AI科技評論

原標題:神經網絡壓縮:基於科學控制法的網絡剪枝方法

隨著深度學習的迅猛發展,計算機視覺、自然語言處理等一系列領域的算法性能都有了跨越式的進展。深度學習算法在學術界已經普遍應用,但在工業界卻還沒得到非常廣泛的應用,其中一個重要原因就是深度學習網絡的模型龐大、計算量巨大。一個卷積神經網絡的權重文件動輒數百兆,儘管目前智慧型手機的性能已經非常優秀,但是要在應用中塞入上百兆的權重也是一個很不明智的選擇;另一方面,在一些嵌入式的平台上,存儲計算資源都十分有限,深度學習算法的移植更加困難。所以深度學習模型的壓縮,是非常重要的一個問題。

現有的神經網絡壓縮方法主要包括:淺層網絡、剪枝網絡、緊湊網絡、對參數進行離散化處理等。其中剪枝網絡是指 對網絡進行剪裁,以及對一些不攜帶有效信息的權重進行過濾,使用裁剪後的參數再重新對網絡訓練。

本周四晚8點,我們特別邀請到北京大學信息科學技術學院三年級博士生-唐業輝,作客AI研習社NeurIPS2020系列論文解讀直播間,為大家詳細介紹他被收錄的論文情況。嘉賓分享完還有問答環節,歡迎大家積極參與討論,一起探討《神經網絡小型化: 基於科學控制法的網絡剪枝》。

分享主題:

《神經網絡小型化: 基於科學控制法的網絡剪枝》

分享時間:

2020年12月3日(周四)20:00-21:00

分享嘉賓:

唐業輝

北京大學信息科學技術學院三年級博士生,已有多篇文章被CVPR、AAAI等會議接收,研究內容包括深度神經網絡正則化方法、模型壓縮和網絡結構搜索等。

分享背景

分享提綱

1、神經網絡壓縮技術的背景和現狀

2、基於科學控制法的神經網絡剪枝方法(NeurIPS 2020)

3、訓練樣本不足時的網絡剪枝策略 (AAAI 2020)

論文地址

https://papers.nips.cc/paper/2020/hash/7bcdf75ad237b8e02e301f4091fb6bc8-Abstract.html

直播間觀看地址

AI研習社直播間:https://live.yanxishe.com/room/886

掃碼添加小助手微信,回復【NIPS】進入NeurIPS2020論文交流群

點擊「閱讀全文」,進入直播間預約,避免錯過精彩分享!

文章來源: https://twgreatdaily.com/0FdAI3YBjdFTv4tAUPDx.html