本文是喬伊·布蘭維尼(Joy Buolamwini)的《揭開人工智慧的面紗:我在機器世界中保護人類的使命》的節選。內容經過了部分編輯。
(來源:STEPHANIE ARNETT/MITTR | ENVATO)
「X 風險」一詞是人工智慧帶來的潛在生存風險的縮寫。雖然我的研究支持人工智慧系統因為過於危險不應該被集成到武器系統中,但這並不是人工智慧系統本身(作為超級智能體)構成了生存風險。
人工智慧系統可能會錯誤地將某人識別為犯罪嫌疑人,而那些用於警務的機器人以及有故障的自動駕駛汽車,都可能使你的生命處於危險之中。
可悲的是,人工智慧系統無需擁有超級智能,就能對個人生命產生致命的後果。造成明顯危害的現有人工智慧系統,比假設的「有意識的」人工智慧系統更危險,因為它們是真實存在的。
如果一些公司聲稱自己擔心人工智慧會帶來生存風險,那麼它們可以不發布自己認為可能終結人類的人工智慧工具,以此來表明其保護人類的承諾。
我並不反對阻止創造致命的人工智慧系統。關注人工智慧致命用途的政府可以採取「阻止殺手機器人運動(Campaign to Stop Killer Robots)」所倡導的保護措施,禁止致命的自主系統和數字非人化。
這場運動旨在解決人工智慧的潛在致命用途,而不會做出過於誇張的行動。
儘管人們很容易將身體暴力視為最終的傷害形式,但這樣做很容易讓人忘記人類社會持續的結構性暴力。
通過使用人工智慧拒絕某個或某些人獲得醫療保健、住房和就業機會,這會讓個人傷害和幾代人的創傷永久化。
鑒於我的「性別陰影」研究揭示了世界上一些領先的科技公司的算法偏見,我擔心的是人工智慧帶來的直接問題和新出現的漏洞,以及我們是否能夠以有助於創造一個未來,讓人工智慧的負擔不至於成比例地落在邊緣化和弱勢群體身上。
當我想到生存風險時,我想到的是現在受到傷害的人,以及那些面臨人工智慧系統傷害風險的人。我想到了被「排除在外」的風險和現實。
當醫院使用人工智慧進行分診,讓你得不到應有的護理,或者使用臨床算法阻止你接受能被挽救生命的器官移植時,你可能會處於「被排除在外」的狀態下。當你根據算法決策被拒絕貸款時,你也可能會被排除在外。
當你的簡歷被人工智慧自動過濾掉,你被剝奪了參與競爭那些人工智慧系統無法取代的剩餘工作的機會時。
當租戶篩選算法拒絕你獲得住房時,你可能會被排除在外。所有這些例子都是真實的。沒有人能免於被排除在外,那些已經被邊緣化的人面臨著更大的風險。
這就是為什麼我的研究不能局限於業內人士、人工智慧研究人員,甚至是善意的影響者。是的,學術會議是重要的場所。對許多學者來說,發表論文是具體研究探索的頂點。
對我來說,在美國紐約大學彙報「性別陰影」是一個跳板。我覺得我有動力把研究付諸行動,超越與人工智慧從業者的談話、超越學術演講、超越私人晚宴。
僅僅接觸學者和業內人士是不夠的。我們需要確保每天面臨人工智慧危害風險的人都參與到算法正義的鬥爭中來。
支持:Ren