全球首個「算法章程」:應對算法偏見,紐西蘭使出殺手鐧

2020-08-31   讀芯術

原標題:全球首個「算法章程」:應對算法偏見,紐西蘭使出殺手鐧

全文共2284字,預計學習時長6分鐘

圖源:unsplash

算法無處不在。我們的網絡生活由神秘無形的算法所引導著,算法使用海量數據幫助私營公司和政府做出決策,或將其徹底自動化;生活中,從汽車保險報價到社交媒體消息。

儘管算法對日常生活至關重要,但大多數人並不清楚算法是如何使用數據進行決策的,這意味著人們可能忽略了一些嚴重問題。例如,去年的一項研究發現,在幫助醫院確認病人是否需要額外護理的常用算法中,存在歧視黑人的偏見傾向。

為了應對這一問題,紐西蘭政府計劃推出了「全球首個算法章程」。該章程包含一系列規定與原則,供政府機構在應用算法時遵循,以便民眾一窺其真容。通過首倡算法失察責任制,公開展示算法如何影響日常生活,紐西蘭希望此舉能為其他國家樹立榜樣。

簽署該章程的機構做出了一些承諾。例如,他們同意用淺顯易懂的英語公開算法的使用時間與方法,確保算法不帶有偏見,並允許同行審查以避免出現「意外後果」;還包括在算法開發和使用過程中兼顧毛利土著人的視角,並要求機構提供民眾可用的聯繫途徑以諮詢算法相關的問題,以及就算法做出的決策提出異議等。

從計算失業救濟金到警察如何巡視周邊並登記住戶信息,政府在許多方面應用了算法。讓人民群眾了解算法的真正運作方式,有助於政府對保證算法公正性負責。

迄今為止,該章程已經有大量的簽署方,包括教育部、環境部、紐西蘭統計局、紐西蘭國防軍等。但值得一提的是,該國的警察部門和情報機構,如政府通信安全局,並不在簽署方之列。

圖源:unsplash

儘管聽上去是些技術性問題,但其實政府採用的算法與公共生活息息相關。2020年初,《紐約時報》報道稱美國使用算法「規劃警察巡邏、服刑與緩刑規則」,荷蘭則「用算法標記福利詐騙風險」。

制定決策使用了哪些數據我們很難查明,例如算法是否考慮到性別、郵政編碼、年齡或其它多種因素,遑論用於訓練算法的數據是否在初期得到合理的使用。

這可能導致「指標偏見(bias by proxy)」,即採用一種變量來測定某一結果,但二者間卻並不具備真實的相關性。例如,在其它系統性因素也可能有所影響的情況下,根據學生在標準化測試中的成績來檢測教師的工作效率。

ProPublica研究了用於為警署逮捕人員生成風險評分的算法。研究顯示,這類偏見隨處可見。根據該項調查,這種計算方法不僅可能「錯誤地將黑人被告者標記為潛在的罪犯」,而且「比起黑人被告者,更易將白人被告者誤認為低風險人員」。

帶有偏見的算法困擾著紐西蘭。《衛報》報道稱該章程的簽署方之一,即紐西蘭意外傷害賠償局,「2017年因使用算法檢測記錄中的詐騙事件而受到指責」。懲教機關和移民局過去都曾遇到相似的問題,這兩者也都簽署了該章程。

要求算法以簡明易懂的文本記錄有助於減輕對其直接受眾的影響,因為這允許他們核實自己是否被公正地對待。簡明易懂的文本記錄能告知人們計算機是如何得出與他們相關的結論,並在決策可能不公正的情況下提供官方的質詢途徑。

的確,這類政策過去曾出現問題。2018年,紐約市實施了《算法問責法案》,以透明化市政府使用的多種自動化系統。兩年後,CityLab報道稱,官僚主義阻礙了最基本的透明性,負責實施該政策的工作組甚至無法獲取紐約市所用的自動化系統的清單。

儘管如此,假如實施得當,紐西蘭的章程是能夠讓政府在使用個人數據和規劃居民生活方面更好地獲取市民信任的。關於信任缺失對政府的影響有一個經典的例子:谷歌旗下的Sidewalk Labs是一家研究城市生活的初創公司,由於爭議頗多,它不得不放棄多倫多市的項目。

這一公私合作項目是與多倫多市共同開展的。對於這一「智慧街區」項目來說,數據使用至關重要,項目主辦方也盡力對其進行了解釋。據《華爾街日報》報道,2020年,因為居民質疑「谷歌的算法過多地掌控了城市規劃」,該智慧城市項目宣告關停。

如果有關方面要求公司將該項目透明化,那麼或許市民們會認為Sidewalk Labs值得信任,而不是施壓終止項目。

圖源:unsplash

簽署了紐西蘭算法章程的機構必須使用風險評級,通過評估偏見出現的可能性及影響程度來決定如何應用該章程,並據此記錄日常使用的算法的風險。雖然目前章程中還沒有懲罰條例和執行機制,但一年後的評審過程將會調查簽署機構是否應用了該章程。

作為紐西蘭的居民,筆者深知能夠窺探算法後的真相,鑑別自己是否在政府應用算法時得到了公正對待,以及得知政府如何使用採集到的個人數據來得到結論,都是值得珍惜的權利。在這一章程出台之前,我們根本無從得知如何制定決策、使用何種數據。這些規定要求政府必須公示內部的運作機制,因而給人以信任感。

紐西蘭仍在探索實施新規的途徑。在這一過程中,紐西蘭將為其他效仿此舉的國家奠定基礎。公開政府所使用的算法無疑將會揭露不平等現象,但也是在為那些被迫由計算機的決策左右生活的人發聲,這一公開透明的決策有助於解決AI中的系統性問題。

留言點贊關注

我們一起分享AI學習與發展的乾貨

如轉載,請後台留言,遵守轉載規範