過去五年昔汉,達(dá)勒姆警察局和計(jì)算機(jī)科學(xué)家們一直在開發(fā)“危害風(fēng)險(xiǎn)評估工具”(簡稱HART)懈万。HART是一個(gè)人工智能系統(tǒng),它可以預(yù)測犯罪嫌疑人兩年內(nèi)再犯的概率是較低靶病、中等還是較高会通。
HART是英國警方最先采用的人工算法之一。它不直接決定是否羈押犯罪嫌疑人娄周,而是意在幫助警察決定是否將某個(gè)人列入一個(gè)叫做“Checkpoint”的康復(fù)計(jì)劃涕侈。這個(gè)康復(fù)計(jì)劃的初衷是調(diào)停訴訟,防止嫌疑人被送上法庭煤辨。
HART系統(tǒng)用到了34項(xiàng)個(gè)人數(shù)據(jù)(包括年齡裳涛、性別和犯罪史等)來評估犯罪風(fēng)險(xiǎn)的高低,其中包含了郵政編碼鉴梦。不過警方目前正在剔除該AI系統(tǒng)中的郵政編碼信息的主要字段氛灸,比如刪除達(dá)勒姆郵政編碼的前四位數(shù)耘泰。2017年9月發(fā)表的一篇學(xué)術(shù)論文草案在回顧對這項(xiàng)算法的使用時(shí)寫道:“HART目前正在接受數(shù)據(jù)更新逐茄,目的是刪除兩個(gè)與郵政編碼相關(guān)的預(yù)測指標(biāo)中的一個(gè)。”這篇論文的聯(lián)合作者之一是一位警方成員嘀醋。
愛丁堡納皮爾大學(xué)犯罪司法系統(tǒng)專家Andrew Wooff說道:“我對于將郵政編碼前幾位作為預(yù)測指標(biāo)心存憂慮张域。”他補(bǔ)充說,將地域和社會(huì)人口統(tǒng)計(jì)信息等作為預(yù)測指標(biāo)讲侵,會(huì)加深警務(wù)決策和司法系統(tǒng)中的偏見蚪录。“如果系統(tǒng)預(yù)測某個(gè)郵編對應(yīng)的地區(qū)具有犯罪高發(fā)風(fēng)險(xiǎn),而且警方據(jù)此采取了行動(dòng)耸壮,無疑會(huì)放大這種認(rèn)知粤街。”
這篇即將發(fā)表的學(xué)術(shù)論文,首次對HART進(jìn)行了認(rèn)真的審視笑驶。它指出职颜,郵政編碼和社區(qū)的貧困程度可能有一定的相關(guān)性。住址信息之所以會(huì)成為預(yù)測犯罪的相關(guān)指標(biāo)嫌变,可能是人為造成的結(jié)果吨艇。如果把郵政編碼作為建立再犯模型的依據(jù),那么這個(gè)模型就會(huì)使犯罪高發(fā)地區(qū)的居民備受關(guān)注腾啥。這篇論文強(qiáng)調(diào)东涡,真正令人擔(dān)憂的不是模型本身,而是用來構(gòu)建模型的預(yù)測因子倘待。
該論文還強(qiáng)調(diào)疮跑,“人類和算法的預(yù)測觀念存在明顯的分歧。”在該算法的初始實(shí)驗(yàn)階段,警方成員被要求模仿算法的輸出結(jié)果祖娘,預(yù)測一個(gè)人的再犯幾率是較低锣披、中等還是較高。差不多三分之二的情況下(63.5%)贿条,警員將罪犯的再犯幾率歸類為中等雹仿。論文中寫道,“模型和警員預(yù)測的吻合率只有56.2%整以。”
就修改算法一事胧辽,外媒WIRED聯(lián)系了達(dá)勒姆警察局,但截至發(fā)稿時(shí)間尚未收到對方答復(fù)勒蜘。
剖析HART算法的內(nèi)在機(jī)制
“您被邀請參加一項(xiàng)研究計(jì)劃”悄锈,一位達(dá)勒姆警官手中的邀請函這樣寫道。他被告知炊惊,“這項(xiàng)研究將徹底改變你的生活”菌渐,如果這項(xiàng)研究獲得成功,罪犯們將永不再犯亮钩。
Checkpoint計(jì)劃是達(dá)勒姆警察局和劍橋大學(xué)聯(lián)合主導(dǎo)的一項(xiàng)實(shí)驗(yàn)暖娃。這項(xiàng)實(shí)驗(yàn)希望通過研究為什么有些人會(huì)吸毒、酗酒巢驶、無家可歸和出現(xiàn)心理問題來降低再犯罪率力浅。
Checkpoint計(jì)劃的研究對象由HART算法來提供。如果某人被HART算法判定為具有中等再犯幾率个滓,就會(huì)被列入Checkpoint計(jì)劃叭痰。而被系統(tǒng)判定為具有較低或較高再犯風(fēng)險(xiǎn)的人,則不會(huì)被列入計(jì)劃尼可。
弗吉尼亞大學(xué)公共政策與經(jīng)濟(jì)學(xué)教授Jennifer Doleac說道:“人們的生活被現(xiàn)狀所擾斥滤,但有沒有一種更好的處理犯罪的方式呢,這種方式更加公平勉盅,讓我們更加接近社會(huì)目標(biāo)佑颇?”Checkpoin計(jì)劃曾被霍華德刑法改革聯(lián)盟授予獎(jiǎng)項(xiàng),后者稱贊了它試圖讓人們免受司法體系困擾的嘗試菇篡。
HART是一個(gè)使用R編程語言漩符,通過隨機(jī)森林進(jìn)行決策的機(jī)器學(xué)習(xí)系統(tǒng)。所謂隨機(jī)森林驱还,是指一種基于一系列不同輸出進(jìn)行預(yù)測的方法嗜暴。
HART所做的每一個(gè)決策都是建立在歷史數(shù)據(jù)之上的,它通過分析歷史數(shù)據(jù)來預(yù)測未來议蟆。達(dá)勒姆警察局向HART的第一代模型提供了2008-2012年期間的104000起羈押時(shí)間的詳細(xì)信息闷沥。它從這些信息中提取出了包括位置數(shù)據(jù)在內(nèi)的34個(gè)預(yù)測因子萎战,并據(jù)此預(yù)測每個(gè)人的再犯幾率。HART的所有預(yù)測結(jié)果都是通過系統(tǒng)內(nèi)部的509個(gè)投票得出的舆逃,投票分為低蚂维、中、高三個(gè)選項(xiàng)路狮。
這項(xiàng)研究由達(dá)勒姆警察局的刑事司法主管Sheena Urwin領(lǐng)導(dǎo)侦广,他發(fā)表的研究成果顯示,HART系統(tǒng)在真實(shí)世界中是行之有效的结晒。HART系統(tǒng)的早期版本曾經(jīng)預(yù)測一個(gè)24歲的男子具有高再犯幾率成猴。該男子有過暴力犯罪史,警方掌握了他的22條犯罪記錄碎准。HART系統(tǒng)內(nèi)部投票時(shí)有414票投給了高再犯幾率陶份,另有87票和8票分別投給了中等再犯幾率和低再犯幾率。后來該男子果然因?yàn)橹\殺而被捕定罪焚怨。
以算法為執(zhí)法依據(jù)
雖然人工智能在警察和執(zhí)法機(jī)構(gòu)中的應(yīng)用仍處于早期階段武敦,但對有志于開發(fā)AI算法系統(tǒng)的警察機(jī)構(gòu)來說,這個(gè)過程中已經(jīng)暴露出了很多值得警惕的問題铺描。
Pro Publica 2016年的一項(xiàng)調(diào)查研究曾被廣泛引用使义,該調(diào)查顯示,Northpointe開發(fā)的COMPAS軟件對黑人犯罪持有偏見狼棠。
喬治梅森法學(xué)教授Megan Stevenson在研究風(fēng)險(xiǎn)評估算法Kentucky的作用時(shí)發(fā)現(xiàn)驼鳞,該算法并沒有起到多大的作用。通過分析一百多萬起刑事案件的資料杯聚,Stevenson得出結(jié)論,“它既沒有帶來風(fēng)險(xiǎn)評估算法的擁躉們所期待的效率提升抒痒,也沒有像批評者們預(yù)言的那樣加深種族歧視幌绍。”研究結(jié)果還顯示,法官們使用Kentucky系統(tǒng)的風(fēng)險(xiǎn)評估法的時(shí)間越長故响,他們就越傾向于回到自己原有的工作方法和模式傀广。
為了避免人類的種族和社會(huì)歧視滲透到HART算法當(dāng)中,達(dá)勒姆警察局專門為員工舉辦了圍繞“無意識歧視”的宣傳講座彩届。警方還強(qiáng)調(diào)伪冰,這項(xiàng)算法所使用的預(yù)測因子中并不包含種族,而且算法輸出的結(jié)果只是一種輔助樟蠕,它的目的在于幫助人類更好地作出決策贮聂。2017年12月,Urwin向國會(huì)議員解釋道:“雖然我不能告訴你具體的數(shù)字寨辩,但警員們確實(shí)不會(huì)完全按照算法的預(yù)測行事吓懈,因?yàn)轭A(yù)測并非全部和最終的參考依據(jù)歼冰,它只是一種輔助而已。”
愛丁堡納皮爾大學(xué)的Wooff教授則表示拷拥,出于時(shí)間緊迫和集約資源的考慮众桨,警方可能會(huì)讓警員們過度依賴AI生成的決定。他說道:“我可以想象祸遮,警員們可能更依賴于系統(tǒng)的決策而不是自己的思考宪凹。” Wooff教授認(rèn)為,書面記錄對需要做決策的警員們或許有所幫助木锈,“這部分是因?yàn)槌┬蹋坏┏霈F(xiàn)了問題,你可以為自己的決策辯護(hù)槐猪。”
另一項(xiàng)聚焦于COMPAS軟件的準(zhǔn)確性的研究發(fā)現(xiàn)喇躲,它和沒受過專業(yè)訓(xùn)練的人類做出的決策沒什么不同。這項(xiàng)研究的作者之一Julia Dressel說道:“COMPAS的預(yù)測并不比那些幾乎沒有任何刑事司法經(jīng)驗(yàn)的人许食,基于在線調(diào)查做出的預(yù)測更加準(zhǔn)確继棉。” Julia Dressel現(xiàn)在已經(jīng)成了一名蘋果工程師。
Dressel和達(dá)特茅斯學(xué)院教授Hany Farid付費(fèi)讓人們使用亞馬遜的Amazon Mechanical Turk網(wǎng)站够菊,預(yù)測罪犯是否會(huì)再次犯罪终琅,并將預(yù)測結(jié)果和COMPAS的結(jié)果相比較。結(jié)果顯示符衔,人類和算法的預(yù)測準(zhǔn)確率都在67%左右找前。Dressel說道:“我們不能憑空想象,認(rèn)為一個(gè)工具運(yùn)用了大數(shù)據(jù)就能準(zhǔn)確地預(yù)測未來判族。我們需要讓它達(dá)到非常高的標(biāo)準(zhǔn)躺盛,而且要對它進(jìn)行測試,讓它證明自己確實(shí)像標(biāo)榜的那般準(zhǔn)確有效形帮。”
開誠布公槽惫,接受公眾監(jiān)督
達(dá)勒姆警察局的算法是一個(gè)“黑箱”,系統(tǒng)無法完全解釋自己是如何做出決策的辩撑,我們只知道它是基于模型內(nèi)部的超過420萬個(gè)數(shù)據(jù)點(diǎn)界斜。2017年9月,對HART的總結(jié)和反思得出一個(gè)結(jié)論合冀,“不透明度似乎無可避免”各薇。目前HART系統(tǒng)僅接入了達(dá)勒姆警局的數(shù)據(jù),未來它可能還會(huì)接入地方議會(huì)或英國警察國家數(shù)據(jù)庫中的數(shù)據(jù)君躺。
為了規(guī)避算法不透明的問題峭判,警方創(chuàng)建了一個(gè)框架,框架規(guī)定了算法該在何種情況下被使用现熔。這個(gè)框架被稱為“算法注意事項(xiàng)”服骚,里面說道滤躺,算法必須是合法、準(zhǔn)確蝎蛤、可挑戰(zhàn)屠途、負(fù)責(zé)人和可解釋的。
AI Now研究所的技術(shù)人員Dillon Reisman說道:“問責(zé)不能只是一個(gè)核對清單挪吱。很高興看到他們制定了“算法注意事項(xiàng)”带诊,但他們還應(yīng)該思考優(yōu)先使用算法是否恰當(dāng)。” AI Now研究所主要的做事情是研究人工智能對于社會(huì)產(chǎn)生的影響捺柬。
警方拒絕公布HART的底層代碼于箩,認(rèn)為這不符合大眾的利益,而且有可能將這個(gè)系統(tǒng)扼殺于研究階段望泪。不過判嘀,警方表示他們愿意將底層系統(tǒng)交給中央組織。
“達(dá)勒姆警察局將準(zhǔn)備好向算法監(jiān)管機(jī)構(gòu)公開HART算法和相關(guān)的個(gè)人數(shù)據(jù)及羈押數(shù)據(jù)集宾芥,”警方被問及數(shù)據(jù)公開問題時(shí)如此回應(yīng)道侣夷。
Reisman認(rèn)為,僅僅公開這些數(shù)據(jù)還不夠仑乌,因?yàn)?ldquo;光看代碼無法對算法進(jìn)行評估”百拓。他說道:“你還等知道人們是如何根據(jù)算法的決策采取行動(dòng)的。”
在這些發(fā)生之前晰甚,AI警務(wù)系統(tǒng)的有效性仍值得商榷衙传。2017年9月,一份由Urwin參與寫作的關(guān)于HART的審查報(bào)道厕九,重點(diǎn)關(guān)注了算法預(yù)測是否完全適用蓖捶,以及種族等相關(guān)數(shù)據(jù)是否應(yīng)該被納入警務(wù)系統(tǒng)這兩大課題。
COMPAS分析報(bào)告的聯(lián)合作者說道:“根據(jù)以往的行為準(zhǔn)確預(yù)測一個(gè)人未來兩年會(huì)做些什么是非常困難的止剖。如果你無法做到那樣高的準(zhǔn)確率腺阳,那么就應(yīng)該放棄這種方法,轉(zhuǎn)而尋找其他更簡單的途徑穿香,并在公民的自由和社會(huì)穩(wěn)定之間尋找平衡。”