BM宣布退出人臉識(shí)別業(yè)務(wù):人臉識(shí)別和公眾隱私,種族歧視等的矛盾
美國(guó)人越來(lái)越反感人臉識(shí)別了。
具體來(lái)說(shuō),黑人 George Floyd 之死,也讓美國(guó)社會(huì)繼續(xù)反思警察執(zhí)法問(wèn)題,并由此引申到警察在執(zhí)法中所采用的技術(shù)——其中最被嚴(yán)重詬病的,就是人臉識(shí)別。
在人臉識(shí)別再次成為眾矢之的的情況下,科技行業(yè)也有了一些動(dòng)靜。
南都訊 記者馮群星 非裔美國(guó)人喬治·弗洛伊德(George Floyd)之死正在引發(fā)一系列的連鎖反應(yīng)。當(dāng)?shù)貢r(shí)間6月8日,IBM官網(wǎng)公布了首席執(zhí)行官阿里德·克里希納(Arvind Krishna)致美國(guó)國(guó)會(huì)的一封信,宣布不再提供通用的人臉識(shí)別或分析軟件。另?yè)?jù)外媒報(bào)道,IBM表示也不會(huì)再繼續(xù)開(kāi)發(fā)或者研究相關(guān)技術(shù)。
當(dāng)?shù)貢r(shí)間5月25日,在美國(guó)明尼蘇達(dá)州明尼阿波利斯鮑德霍恩社區(qū),非裔美國(guó)人喬治·弗洛伊德被白人警察德里克·肖萬(wàn)(Derek Michael Chauvin)逮捕。肖萬(wàn)單膝跪在弗洛伊德脖頸處超過(guò)8分鐘,弗洛伊德被跪壓期間失去知覺(jué)并在急救室被宣告死亡。這一事件讓美國(guó)社會(huì)長(zhǎng)期存在的種族歧視問(wèn)題再次浮上水面,引發(fā)了美國(guó)大規(guī)模的游行和示威活動(dòng)。
克里希納在信中表示,喬治·弗洛伊德及多位非裔美國(guó)人的死亡提醒美國(guó)人,“與種族歧視的斗爭(zhēng)一如既往得緊迫”。因此,IBM希望與國(guó)會(huì)合作,從技術(shù)使用、警察改革等關(guān)鍵領(lǐng)域著手,推動(dòng)實(shí)現(xiàn)公平正義和種族平等。
“IBM不再提供通用的人臉識(shí)別或分析軟件。IBM堅(jiān)決反對(duì)并且絕不容忍將任何技術(shù)(包括其他供應(yīng)商提供的人臉識(shí)別技術(shù))用于大規(guī)模監(jiān)視、種族歧視、侵犯基本人權(quán)和自由,或用于任何與我們的價(jià)值觀、與我們的信任與透明度原則不符的目的。我們認(rèn)為,現(xiàn)在是時(shí)候開(kāi)始關(guān)于國(guó)內(nèi)執(zhí)法機(jī)構(gòu)是否能使用,以及如何使用人臉識(shí)別技術(shù)的全國(guó)性討論?!笨死锵<{寫(xiě)道。
他表示,人工智能是一種強(qiáng)大的工具,可以幫助執(zhí)法機(jī)構(gòu)保護(hù)民眾的安全。但是,人工智能的供應(yīng)商和用戶(hù)負(fù)有共同的責(zé)任,即確保人工智能應(yīng)用,尤其是執(zhí)法機(jī)構(gòu)的人工智能應(yīng)用不存在歧視。有關(guān)歧視的測(cè)試結(jié)果應(yīng)該被公開(kāi)和審核?!白詈螅瑖?guó)家應(yīng)該出臺(tái)政策,鼓勵(lì)和推動(dòng)警方使用一些能提高執(zhí)法透明度與可信性的技術(shù),比如執(zhí)法記錄儀和現(xiàn)代的數(shù)據(jù)分析技術(shù)?!?/p>
據(jù)AI前哨站梳理,克里希納的擔(dān)心并非杞人憂(yōu)天。多項(xiàng)研究顯示,美國(guó)各大公司的人臉識(shí)別算法在面對(duì)黑人時(shí)均存在準(zhǔn)確率低的問(wèn)題。這也是人臉識(shí)別在美國(guó)一直飽受詬病的原因之一。
2018年,美國(guó)一個(gè)民間組織使用535位美國(guó)國(guó)會(huì)議員的照片測(cè)試了亞馬遜的人臉識(shí)別系統(tǒng),結(jié)果竟有28位國(guó)會(huì)議員被識(shí)別成罪犯。值得注意的是,這28人中有11人為有色人種,包括美國(guó)著名的民權(quán)領(lǐng)袖、眾議員約翰·劉易斯(John Lewis)。由于亞馬遜的人臉識(shí)別系統(tǒng)被美國(guó)執(zhí)法機(jī)構(gòu)廣泛使用,這一測(cè)試結(jié)果加深了人們對(duì)算法歧視的擔(dān)憂(yōu)?!拔覀冃枰眉夹g(shù)來(lái)幫人們解決問(wèn)題,而不是加重有色人種所面臨的不公。黑人和棕色人種已經(jīng)成為歧視性判決系統(tǒng)的受害者。”劉易斯在隨后的一份聲明中寫(xiě)道。
2019年底,美國(guó)國(guó)家標(biāo)準(zhǔn)技術(shù)研究院(National Institute of Standards and Technology,以下簡(jiǎn)稱(chēng)NIST)在調(diào)研了189種人臉識(shí)別算法后也發(fā)現(xiàn),現(xiàn)有的人臉識(shí)別算法仍然無(wú)法排除種族、性別等因素的影響。
根據(jù)NIST的研究,在一對(duì)一的匹配中,大多數(shù)算法對(duì)亞裔和非裔美國(guó)人的誤報(bào)率超過(guò)白人,不同算法的誤報(bào)率差異從10倍到100倍不等;不同地區(qū)的算法也有差異,美國(guó)公司開(kāi)發(fā)的一對(duì)一匹配算法對(duì)亞裔、非裔美國(guó)人和土著群體的誤報(bào)率尤其高。而在一對(duì)多的匹配中,針對(duì)非裔美國(guó)女性的誤報(bào)率普遍更高。研究人員指出,這可能會(huì)導(dǎo)致錯(cuò)誤的犯罪指控。
事實(shí)上,IBM曾經(jīng)試圖解決“算法歧視”的問(wèn)題,并在2018年發(fā)布了可用于人臉識(shí)別算法訓(xùn)練的公開(kāi)數(shù)據(jù)集。但2019年,有網(wǎng)友發(fā)現(xiàn)該數(shù)據(jù)集抓取了近100萬(wàn)張來(lái)自圖片社區(qū)Flickr的照片。這些照片被抓取主要是因?yàn)闃?biāo)記了知識(shí)共享許可協(xié)議(Creative Commons license)。IBM辯稱(chēng)數(shù)據(jù)集并非商用,但許多上傳照片的用戶(hù)以及被拍攝者認(rèn)為不能在未經(jīng)其同意的情況下將其數(shù)據(jù)用于訓(xùn)練。今年初,一些伊利諾伊州用戶(hù)以IBM侵犯隱私為由提起了訴訟。
據(jù)路透社、The Verge等媒體報(bào)道,IBM此前的人臉識(shí)別業(yè)務(wù)并未帶來(lái)可觀的營(yíng)收。有知情人士在接受路透社采訪時(shí)表示,IBM將不再以應(yīng)用程序編程界面或任何其他形式開(kāi)發(fā)、創(chuàng)造、研究或銷(xiāo)售人臉識(shí)別產(chǎn)品,但會(huì)根據(jù)此前的客戶(hù)有需要的情況下提供支持。該人士補(bǔ)充說(shuō),IBM將繼續(xù)研究計(jì)算機(jī)視覺(jué)技術(shù),但僅限于視覺(jué)對(duì)象檢測(cè),而不是用于人臉識(shí)別和分析。