IBM宣布放棄人臉識別!不做種族主義幫凶?還是業務不行取悅民眾?

2020-06-10     大數據文摘

原標題:IBM宣布放棄人臉識別!不做種族主義幫凶?還是業務不行取悅民眾?

大數據文摘出品

作者:劉俊寰、牛婉楊

弗洛伊德事件持續升溫,並且這隻蝴蝶翅膀,正在技術領域掀起一次海嘯。

6月9日,IBM執行長Arvind Krishna宣布,由於「人臉識別技術可能存在種族和性別歧視」,IBM將不再開發和提供人臉識別技術以及相關服務

在一封公開信中,Krishna對IBM放棄人臉識別這塊「大蛋糕」進行了解釋:

IBM堅決反對並且 絕不容忍任何將技術(包括其他供應商提供的人臉識別技術)用於大規模監視、種族歧視、侵犯基本人權和自由或任何與價值觀和信任原則不符的行動中。我們認為,現在是時候開始關於國內執法機構是否以及如何使用面部識別技術的全國對話(national dialogue)。

IBM沒有明確表明正式退出人臉識別領域的公布時間,但是Krishna告訴國會議員,應該就使用面部識別服務這一話題進行一次全國對話

日前,美國反種族主義抗議正在進行時,在信中,Krishna也對一項旨在減少警察暴力和增加問責制的新法案表示支持。而IBM的這一行為將種族歧視這一頑疾再度引向輿論高潮,網友對此也議論紛紛,有人表示,「總會有人取而代之」

也有網友表示,「這才是領導力」。

在人臉識別領域,IBM的市場份額並不大,但是IBM的主要客戶之一是政府機構,此次Krishna的說法也將對政府業務產生一定的影響。

IBM:不做種族主義的幫凶?

人臉識別為代表的信息隱私在技術領域內也曾引起多次討論。

比如去年,亞馬遜就針對面部識別技術的使用進行了股東投票,結果顯示,2.4%的股東投票贊成在隱私和民權方面禁止向政府機構出售該技術。

如今,弗洛伊德事件成為又一「導火索」,IBM也加入到對技術倫理的探討中。

根據一位知情人士透露,IBM的這項決定與弗洛伊德事件有著直接關係。但即使如此,要放棄投資已久並且市場前景火熱的人臉識別業務,也顯得有些因噎廢食了。

不過,Krishna在公開信中所寫到的,「AI是一個強大的工具,可以幫助執法機構保護公民安全。但是Al供應商和用戶應該共同肩負起責任,對Al進行偏見測試、審計和報告,尤其是在執法中使用時」。

這樣的發言也可以視為對人臉識別領域的一次鄭重的訣別了。

迎合民意,IBM順水推舟裁掉業務線?

但作為一家科技公司,IBM的目的可以這麼單純嗎?

這位知情人士還透露道,IBM的這項決定和人臉識別給公司帶來的收益太少也有很大關係。

對於IBM來說,人臉識別技術還處於起步階段,就公司內部的長遠發展而言,人臉識別技術的應用場景也並沒有意料之中的豐富

仍以亞馬遜為例,亞馬遜的Rekognition雖然已經被不少執法機構使用,但是在該領域內似乎沒有很被看好。

這也是IBM現在的處境,如果只是用質量勉強過關的產品在市場進行競爭,這對IBM來說沒有什麼好處

目前還無法猜測未來IBM將沿著怎樣的路線進行AI研究。不過,根據路透社的報道,IBM的視覺技術將限制在視覺對象檢測上,而不是用於人臉分析和識別。

IBM曾創建百萬人臉資料庫,用以防止偏見

去年IBM還建立了一個更多樣化的,包含百萬人臉圖像的數據集,希望能夠更好的減少AI的偏見,尤其是種族方面,IBM將重點放在了編碼方案上。

關於如何區分「Ethnicity」和「Race」,創建了這個數據集的John R. Smith解釋道:

Ethnicity和Race通常可以互換使用,儘管前者更多是與文化相關,而後者主要與生物學有關。兩者之間的界限都不明顯,如果用標籤的話,會面臨主觀和雜亂的問題,就像在之前的工作中發現的那樣。取而代之的是,我們選擇專注於可以可靠確定並具有某種連續規模的編碼方案,從而可以提供多樣性分析。我們可能會回到這些主觀的範疇。

然而,即使有100萬張面孔,也不能保證這組面孔具有足夠的代表性——所有群體和子集都有足夠的面孔來防止偏見。事實上,Smith似乎確信事實並非如此,這是唯一合乎邏輯的立場:

在第一個版本的數據集中,我們不能保證這一點。但是,這是我們的目標。首先,我們需要弄清楚多樣性的維度,從這個版本中的數據和編碼方案開始,然後進行疊代。希望我們能在這個過程中帶動更大的研究團體和行業。

性別、膚色,AI偏見無處不在

儘管IBM在防止人臉識別的偏見上做出了不小貢獻,他們也堅信未來人臉識別技術將會越來越主流,但是過去幾周,IBM內部不少員工仍然對公司人臉識別技術表示出了不同程度的擔憂

事實上,這項擔憂不是全無道理。

2017年,Algorithmic Justice League的創始人Joy Buolamwini對IBM、微軟、礦視3家專注於人臉識別領域的科技公司的相關算法進行了偏見測試

相關連結:

http://gendershades.org/overview.html

雖然在整體上,3家公司都達到了90%的識別準確率,但是當用「性別」、「膚色」等標籤進行分類查看時,效果也就沒有那麼盡如人意

這就是Buolamwini所想要進行測試和驗證的地方。

Buolamwini收集到了來自3個非洲國家和3個歐洲國家的1270張人臉照片,然後將這些照片用不同的標籤進行分類。

比如,在性別上,3家公司的算法針對男性的識別率都要優於女性。

同時,可以想見,在膚色上,對深色人種的識別準確率要遠低於白種人。

綜合考察的結果是,對深膚色女性,3家公司的表現都是最差的。不過值得注意的一點是,礦視在深膚色男性的識別準確率上卻是所有分類中最高的。

具體到IBM來說,算法準確率的差距是最大的,淺膚色男性和深膚色女性的錯誤率相差達到了34.4%

在收到檢測結果後,IBM相關負責人當天就回復表示,他們已經著手對相關算法進行優化

在這份報告中,Buolamwini表示,在進行評估前,這3家公司都沒有對其算法在性別、皮膚類型、種族、年齡或其他屬性方面的表現進行過介紹。

但是,以人臉識別為例,如果想要創建適用於全人類的系統,那麼產品的包容性測試和報告是十分必要的。不過,準確性也不是唯一需要考慮的問題,人臉識別可能被獨裁政府、個人對手和掠奪公司濫用,因此在開發相關技術時,持續的監督和限制是必不可少的。

如今我們都知道,AI並非如此前料想那般中立,在AI程序內部,反映的是那些塑造AI的人們眼中的優先級順序、偏好和偏見,也就是所謂的編碼的目光(coded gaze)。

如果沉浸在機器中立的錯誤假設下,不管是對於社會還是技術本身都將帶來不良影響,雖然IBM即將退出人臉識別領域的競爭,但是弗洛伊德事件也這類事件再度敲響警鐘,我們必須增加透明度和問責制度,確保技術能夠在合理的地方發光發熱。

相關報道:

https://www.theguardian.pe.ca/business/reuters/ibm-gets-out-of-facial-recognition-business-459724/

https://techcrunch.com/2020/06/08/ibm-ends-all-facial-recognition-work-as-ceo-calls-out-bias-and-inequality/

https://web.archive.org/web/20200609023524/https://www.axios.com/ibm-is-exiting-the-face-recognition-business-62e79f09-34a2-4f1d-a541-caba112415c6.html

https://techcrunch.com/2019/01/29/ibm-builds-a-more-diverse-million-face-dataset-to-help-reduce-bias-in-ai/

https://www.cnbc.com/2020/06/08/ibm-gets-out-of-facial-recognition-business-calls-on-congress-to-advance-policies-tackling-racial-injustice.html?__source=sharebar

文章來源: https://twgreatdaily.com/zh-mo/ZFR8nnIBiuFnsJQVVXYu.html