大數據文摘出品
編譯:雲舟
嗚啦啦啦啦啦啦啦大家好,原AI Scholar Weekly改版,融合AI時事新聞內容再度來襲!
AI大事件是AI領域的綜合性專欄,致力於為你帶來最新潮、最全面、最深度的AI行業概覽,從硬核的學術內容到精品產業新聞,為你一網打盡每周AI的前沿資訊。
做AI行業的終身學習者,每周一篇就夠啦!
AI新聞
英偉達NeMo發布:支持快速語音語言模型
使用三行代碼快速編寫和訓練複雜的、最先進的神經網絡體系結構。
詳情:
http://cur.at/VDqBxbA?m=web
arXiv現在可以提交代碼啦!
Papers with Code日前宣布,arXiv現在將允許研究人員在提交研究論文的同時提交代碼,這使得計算機科學家可以簡單地與其他研究人員分享自己的代碼,從而能夠更好地分析、審查或複製人工智慧研究的新進展。
詳情:
https://venturebeat.com/2020/10/08/arxiv-now-allows-researchers-to-submit-code-with-their-manuscripts/?utm_campaign=AI%20Weekly&utm_medium=email&utm_source=Revue%20newsletter
Waymo無司機計程車在鳳凰城上線
Waymo在亞利桑那州菲尼克斯市的機器人計程車服務現在已經向公眾開放了。
詳情:
https://venturebeat.com/2020/10/08/waymos-robo-taxi-service-opens-to-the-public-in-phoenix/
美國國會呼籲對科技巨頭進行反壟斷改革
美國國會對亞馬遜、蘋果、Facebook和谷歌進行的調查發現,為了保持其在網際網路行業的競爭力,可能需要反壟斷法改革。
詳情:
https://www.getrevue.co/profile/AI_Weekly/issues/ai-weekly-october-9-2020-283293
小語料庫上LSTM和BERT的比較
建立在BERT架構上的文獻呈現了很多破紀錄的結果。然而,這樣的模型往往需要非常大的數據集來調整和預訓練。但如果我們只有一個小數據集呢?
研究人員將LSTM模型與BERT模型在以任務為導向的小數據集上進行了比較。
他們選擇了一個意圖分類任務,使用一個用於構建聊天機器人的小數據集。
研究人員使用不同的LSTM架構進行了實驗。在測試中他們發現,最簡單的LSTM架構最適合這個數據集。與BERT相比,LSTM在驗證數據和測試數據方面具有更高的準確性,在統計學上表現顯著。此外,實驗結果表明,對於較小的數據集,BERT比簡單的LSTM結構更適合。
原文:
https://arxiv.org/pdf/2009.05451v1.pdf?utm_campaign=AI%20Scholar%20Weekly%20&utm_medium=email&utm_source=Revue%20newsletter
任務導向對話的自然語言理解基準
本研究介紹了任務型對話中的自然語言理解基準——DialoGLUE,可以促進和鼓勵基於表征遷移、領域適應和樣本有效任務學習的對話研究。
任務對話系統可以通過文本、語音、圖形、手勢等與人類進行交流。他們可以解決許多問題,如訂票、下訂單、安排電話和幫助用戶處理請求等等。因此,DialoGLUE系統在自動化各種業務流程方面具有巨大的潛力,其中包括提高運營速度、個性化客戶服務、降低勞動力成本、提升全天候可用性等等。
通過對DialoGLUE基準的幾種基線方法的評價,研究人員驗證了大規模開放域對話預訓練和任務自適應自監督訓練的有效性。結果表明,DialoGLUE尚有很大的改進空間。DialoGLUE基準測試是開源的,並向研究社區提供了排行榜。
原文:
https://arxiv.org/pdf/2009.13570v1.pdf?utm_campaign=AI%20Scholar%20Weekly%20&utm_medium=email&utm_source=Revue%20newsletter