等等,那頭豬還不想被吃!這個系統能讀懂豬的6種情緒,讀圖3780張,成功率85%

2021-05-06     大數據文摘

原標題:等等,那頭豬還不想被吃!這個系統能讀懂豬的6種情緒,讀圖3780張,成功率85%

大數據文摘出品

作者:Caleb

要說這養豬啊,最近可是發展得紅紅火火。

2019年,文摘菌就發現了一個奇奇怪怪的招聘,根據主營生豬養殖的牧原食品股份有限公司發布的校招計劃,公司針對復旦學子發起「精英管培生」引進計劃,給出的薪資標準為:本科生首年月薪20000+,碩士22000+,博士24000+。

這養豬還需要高科技人才了?

還真是這樣。

2018年,阿里就宣布,要開啟「智能養豬」計劃。每一頭豬從出生起就要被打上數字ID標籤,並圍繞此建立起品種、體重、進食情況、運動頻次、軌跡、免疫情況等資料在內的數據檔案。

農場內的攝像頭還會自動掃描這些數字ID,用來觀察記錄分析小豬的活動情況。通過計算機視覺技術,還能分析出一隻豬一天能走多少步——那些運動不夠的豬需要被趕出去繼續操練。

阿里並非獨一家把目光放到了養豬上的大廠。

今年2月,華為也宣布,將通過ICT技術幫助豬場實現智能化養豬,為豬場提供傳感器、物聯網技術及平台,以實現數字豬場。

但是,俗話說得好,你穿秋褲有兩個原因,一個是因為你覺得冷,一個是因為你媽覺得你冷。

要把豬養好,不真正了解它們的心理想法可是不行的。

於是,荷蘭瓦赫寧根大學的一位博士Suresh Neethirajan就做了這麼一件事。首先,他收集到了全世界6個農場中成千上萬頭豬的養殖數據,隨後他憑此創建了一個AI系統WUR Wolf,用於識別豬的情緒狀態。

據了解,在85%的時間內,系統的判斷都是準確的。

他希望能夠利用這個系統,更好地了解動物的感受,幫助改善他們的生活條件和生活質量。

當然,除了豬以外,這個系統對牛也是適用的。

目前,該項研究已經以論文的形式進行了發表,連結如下:

論文連結:

https://www.biorxiv.org/content/10.1101/2021.04.09.439122v1.full.pdf

從耳朵識情緒,你養的豬感受到壓力了嗎?

論文指出,該系統使用的3780張圖像,來自於235頭豬和210頭牛。

拿到視頻或圖像後,我們還需要對這些數據進行一些預處理,包括檢測面部、面部對齊,以及輸入標準化。

收集到的數據根據時間戳和RFID標籤和標記進行了標註,面部提取利用到了MIT的LabelImg代碼,用於標註不同模型邊界框的注釋是按照每個模型的標準格式進行的。

然後,我們就需要把農場動物的情緒進行分類,比如豬有6種情緒,牛有3種情緒等,再根據牛、豬的耳朵姿勢、眼白等面部特徵的相關性,將採集到的分組圖像數據集分為9類,包括放鬆、警惕、興奮等。

具體而言,如果牛的耳朵直立著,那代表著它目前可能正感到興奮,但是如果它的耳朵指向前方,那它很有可能正被沮喪等負面情緒困擾著。

與牛類似,要了解豬的情緒狀態,也可以直接從耳朵入手。比如,如果豬的耳朵在快速抽動,那表示它們可能正感到壓力,如果豬的耳朵垂懸著並朝眼睛的方向翻轉,則表明它正處於一種中性狀態(neutral state)。

在接受採訪時,Neethirajan博士說到:「有必要從單純消除消極的情緒狀態的做法,轉變為向動物提供積極的狀態,例如嬉戲的行為。」

他認為,這項技術需要數年時間才能真正在農場上實用,不過這種持續的監測所帶來的福利,可能比目前的檢查和審計系統所能帶來的還要高。

論文中寫道:「追蹤和分析動物的情緒將成為建立動物福利審核工具的一項突破。」

「動物行為領域的技術進步是提高人類對與之共享這個世界的385種動物的理解的巨大一步,但未來仍有較大的發展空間。」

從面部表情理解情緒狀況,能做到嗎?

但要準確理解動物的情緒,真的這麼簡單嗎?

去年12月,根據一篇發表於Nature的論文表示,世界不同角落的人們在面對生活中最有意義的情境時,表達情感的方式存在相當高的普遍性

加州大學伯克利分校和谷歌的研究人員使用了一種 「深度神經網絡」 的機器學習技術,分析了上傳到YouTube上的約600萬個視頻片段中的面部表情,這些視頻來自全球各地144個國家。

同時,研究人員還創建了一個在線互動地圖,展示了該算法如何跟蹤與16種情緒相關的面部表情變化。

在把面部表情與不同世界地區的背景和場景聯繫起來後,研究人員發現,跨越地理和文化邊界的人們,在不同社會背景下使用面部表情的方式具有顯著的相似性。

無論身處世界各地,這16種面部表情都會出現在類似的情境中。

研究結果表明, 我們用來表達情緒反應的70%的表情是跨文化共享的。

但是,人類畢竟是一種複雜的生物。

如今,我們日常使用的表情包已經不能代表我們內心真正所想,那表情呢?

心理學家Jessica Tracy和Disa Sauter認為,要理解面部表情,我們需要建立一個信息豐富的情感分類系統,不能把幸福(happiness)視為單一的情感。

研究人員應該對情感類別進行分解,幸福(happiness)項下涵蓋了joy(愉悅)、pleasure(滿足)、compassion(同情)、自豪(pride)等,每種情感的表情可能不同,可能重合。

俄亥俄州立大學哥倫布分校研究面部表情的教授Aleix Martinez表示,自動情緒檢測只能揭示一類人一般的情緒反應

例如,面向營銷機構銷售軟體Affectiva聲稱,系統接受了來自87個國家700多萬張面孔的訓練,準確率達到了90%以上。公司還標榜到,該軟體有助於預測某類客戶對一個產品或營銷活動的反應。

面部表達情緒存在差異,但當一個人某種情緒發作時,出現某些面部形態無疑會更加頻繁。然而,出於對訓練算法的數據的顧慮,以及學界尚存爭論的事實,對於這類軟體的功能性,或許我們最好保持著批判與質疑的態度

文章來源: https://twgreatdaily.com/zh-tw/me3-QnkBDlXMa8equRbO.html