大數據文摘出品
作者:劉俊寰、牛婉楊
美國當地時間5月25日,明尼阿波利斯市警方逮捕美國黑人男子喬治·弗洛伊德時,警察肖萬將膝蓋壓在弗洛伊德頸部長達5分鐘,弗洛伊德被送往醫院後因搶救無效最終死亡。
但是根據檢察官的說法,官方屍檢的初步結果顯示,弗洛伊德體內的潛在毒品和潛在健康問題,包括心臟病,很有可能是導致他死亡的原因。
刑事起訴書上,屍檢結果顯示,「沒有在身體上發現任何傷口支持外傷性窒息或扼殺的診斷」。
6月1日事件迎來反轉,根據美國媒體報道,弗洛伊德的家屬律師表示,獨立屍檢發現,弗洛伊德是由於「頸部和背部受壓,引起的腦部血液不流通,進而導致的窒息性死亡」。
該事件迅速從明尼阿波利斯市蔓延到了美國全國,不少地區開始舉行大規模抗議遊行,局勢混亂不堪,眾多城市淪陷。這也是近兩年發酵最大的一次事關種族主義的事件。從歷史角度上看,現在的美國正在經歷一個非同尋常的時期,美國國內的種族主義的弊端正得到充分展現。
雖然技術一直標榜著客觀公正,但是在相面識別等涉及到膚色、外貌等眾多領域,技術往往在煽動種族主義中發揮了一定的作用。
如何在研究中消除種族偏見也是不少學者投身一生的研究課題。
以本次事件為由,我們特意收集整理了一些種族主義和技術偏見相結合的資源,特別是在AI領域,包括一些研究、文章和書籍等,包括從主流語音識別到面部識別的種豬性探究,希望這些資源能夠成為培養負責任公民、尤其是技術從業者的起點。
Gender Shades(性別陰影)
這是MIT媒體實驗室的一個重要作品:Joy Buolamwini,Timnit Gebru博士,Helen Raynham博士和Deborah Raji共同完成。
在這個項目中,研究者們探究了IBM、微軟和曠視的面部識別系統如何在不同性別和種族下的表現。
作品連結:
http://gendershades.org/
Voicing Erasure(語音清除)
由艾莉森·科內克(Allison Koenecke)領導,這項研究展示了語音識別中的種族歧視問題,並研究了對非裔美國白話英語使用者的影響最大的五種流行的語音識別系統,。
研究連結:
https://www.pnas.org/content/117/14/7684
AI Now:政策算法如何制定?有無偏見?
這是一份來自AI Now研究所的報告,研究者在報告中探索了政府使用的算法系統,包括移民、醫療、司法、人力等主要政府部門,主要探索算法規則和是否存在偏見。
報告連結:
https://ainowinstitute.org/aap-toolkit.pdf
NIST:種族、年齡、性別對面部識別軟體的影響
這是美國國家商會標準與技術研究所(NIST)的一份報告。NIST的一項新研究研究了面部識別軟體工具如何準確識別性別,年齡和種族背景不同的人。報告旨在為政策制定者提供信息,並幫助軟體開發人員更好地了解其算法的性能。
研究連結:
https://www.nist.gov/news-events/news/2019/12/nist-study-evaluates-effects-race-age-sex-face-recognition-software
StereoSet:語言模型中關於偏見的一種度量
StereoSet是一個數據集,用於測量語言模型中的原型偏見。StereoSet包含17,000個句子,用于衡量跨性別,種族,宗教和職業的模型偏好。
MIT的一項研究表示,「度量模型中的種族主義,性別歧視和其他歧視性行為,同時還要確保基礎語言模型的性能保持強勁。為了在StereoSet中表現出色,研究人員必須創建一個公平,公正的語言模型,同時還要對自然語言有深刻的理解。」
研究連結:
https://stereoset.mit.edu/
DISCRIMINATING SYSTEMS Gender, Race, and Power in AI(區分系統:人工智慧中的性別,種族和權力)
這是一項來自AI Now Institute的研究,研究人員指出,AI存在跨性別和跨種族危機,如今的AI系統亟需改變當前在處理人種和性別多樣性上的方法。
研究連結:
https://ainowinstitute.org/discriminatingsystems.pdf
The future of work in black America(黑人美國工作的未來)
這是McKinsey公司做的一份報告,該報告著眼於自動化技術在擴大美國黑人家庭與白人家庭的貧富差距上起到了怎樣的作用。在報告中他們指出,非裔美國人在所有人種中受到自動化影響最大,他們預測到,直到2030年,受到自動化技術的影響,非裔美國人流離失所的機率為23.1%也就是說,這個趨勢甚至到2030年都將保持不變。
報告連結:
https://www.mckinsey.com/featured-insights/future-of-work/the-future-of-work-in-black-america
What is Racial Literacy(種族素養是什麼?)
Jessie Daniels、Mutale Nkonde和Darakshan Mir在數據與社會項目中的一項工作,解釋了為什麼「道德,招聘多樣性和隱性偏見培訓還不足以建立科技界真正的種族素養。
他們將種族素養定義為一種解決技術上種族差異的新方法。
他們認為這是一種可以發展的技能,可以擴展的能力。要提高技術中的種族素養,需要三個基礎:
- 對結構種族主義如何在算法,社交媒體平台和尚未開發的技術中起作用的理性認識;
- 有關如何解決組織內部種族緊張局勢的情緒智力;和
- 致力於採取行動減少對有色人種的傷害。
研究連結:
https://racialliteracy.tech/
機器偏見(Machine Bias)
Pro Publica上的一篇超長特寫報道,揭示了刑事司法系統中的預測算法如何針對黑人。
文章連結:
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
一些書籍推薦
首先是Safiya Noble和Sarah Roberts合著的Technological Elites, the Meritocracy, and Postracial Myths in Silicon Valley,在這本書中,兩人探索了「矽谷技術官僚的話語,以及在後種族主義時代下的投資權利,以此作為資本整合的藉口,這也是反對終結歧視性勞工做法的公共政策承諾的某些方式」。
資源連結:
https://escholarship.org/uc/item/7z3629nh
除此之外,還有一些書籍在探討種族和技術方面取得了不錯的反響:
Algorithms of Oppression,作者Safiya Noble
資源連結:
https://nyupress.org/9781479837243/algorithms-of-oppression/
Race After Technology,作者Ruha Benjamin
資源連結:
https://www.ruhabenjamin.com/race-after-technology
Technicolor: Race, Technology, and Everyday Life,作者Alondra Nelson
資源連結:
http://www.alondranelson.com/books/technicolor-race-technology-and-everyday-life
Artificial Unintelligence,作者:Meredith Broussard
資源連結:
https://mitpress.mit.edu/books/artificial-unintelligence
相關報道:
https://venturebeat.com/2020/06/02/some-essential-reading-and-research-on-race-and-technology/
文章來源: https://twgreatdaily.com/7E9YfnIBiuFnsJQVGQVb.html