人臉識別的技術盲區(qū)與隱私邊界:當面孔成為大數(shù)據(jù)養(yǎng)料,你的臉還好嗎?
但是,在人臉識別一路狂奔的同時,技術開發(fā)所涉及的隱私問題日漸暴露,應用中的弊病也逐漸凸顯。
試想,在簡單“刷臉”就能完成一切的同時,你的五官數(shù)據(jù)將永遠成為網(wǎng)絡數(shù)據(jù)集的一部分,甚至有可能被不同的機構調(diào)用。人臉識別所帶來的并不只是便利、高效和未來感,在現(xiàn)階段,它應該更多地與倫理、審查、規(guī)范化相聯(lián)系。
當研究數(shù)據(jù)被永久存儲
如何劃定隱私邊界
當你走進一家坐著20個人的咖啡店,至少會有22個攝像頭在你身邊:每個人的手機里有一個,另一個通常高高懸掛在角落。你說的內(nèi)容可能被偷聽或被發(fā)布出去,你甚至可能出現(xiàn)在另一位顧客的自拍或視頻會話背景中。但即使最注重隱私的人也不會因此而拒絕進入咖啡店,因為人們都能接受進入公共場所固有的風險。
正是這種對隱私的“合理”期望,使那些需要在公共場合采集人臉識別研究對象的研究者心安理得。但是,當公共場合采集的信息成為了永久且開放的數(shù)據(jù)集,如何劃定“合理”的隱私邊界,就成為了一片學術倫理尚未完善的灰色地帶。
成為數(shù)據(jù)集的研究對象
杜克大學、斯坦福大學和科羅拉多州立大學多泉分校的學者們,都利用了校園監(jiān)控作為捕捉研究對象的手段,但這一行為引起了強烈的反對。雖然人們對在咖啡店里被人偷聽有心理準備,但卻沒有想過會突然變成研究對象,更何況,被錄入的研究對象將永遠成為數(shù)據(jù)集的一部分。
倫理委員會(IRB)批準了這三個使用學生數(shù)據(jù)來改進機器學習算法的研究項目。杜克大學研究員Carlo Tomasi在《杜克大學紀事報》(Duke Chronicle)的一份聲明中表示,他“真誠地認為”自己遵循了委員會的指導方針。
為了開展研究,他和他的同事在公共區(qū)域的所有入口處張貼海報,告訴人們他們正在被記錄,如果他們想要刪除自己的數(shù)據(jù),可以留下聯(lián)系信息。Tomasi也告訴《紀事報》,沒有人主動來聯(lián)系研究團隊刪除數(shù)據(jù)。
但Tomasi承認,他沒有通知IRB自己研究范圍的變化。一般來說,微小的變化是可以不用上報的,但是Tomasi獲得的批準是在室內(nèi)錄制,并且只有提交請求才能訪問數(shù)據(jù)庫。但現(xiàn)實中,他在室外錄制,并且將數(shù)據(jù)庫向所有人開放。他向《紀事報》表示,“IRB不應該受到指責,因為我沒有在關鍵時刻咨詢他們。我對我的錯誤承擔全部責任,我向所有被記錄的人和此舉對杜克大學造成的影響道歉”。
有限的監(jiān)管和失控的后果
在科羅拉多州立大學多泉分校,首席研究員表示雖然他們通過學生數(shù)據(jù)來測試技術,但是團隊從未收集過具體到個人的識別信息。在獨立聲明中,大學們都重申IRB批準了所有研究,并強調(diào)了其對學生隱私的承諾。
但問題在于,大學倫理委員會的監(jiān)管范圍是有限的。他們主要關注研究是如何進行的,但對研究將會如何結束,后續(xù)會產(chǎn)生什么影響卻并不關心。
正如蓋辛格的IRB領導委員會主席、生物倫理學家Michelle Meyer所解釋的那樣,IRB主要關注的隱私問題是在公共場所開展觀察研究時,研究對象是否被單獨識別,以及對他們的識別是否會使他們面臨實質(zhì)利益或生理上的傷害?!皬睦碚撋现v,如果你正在制造一枚核彈,其中涉及調(diào)查或采訪人類受試者,那么IRB考慮的風險將是直接參與該項目的人員面臨的風險,而不是核爆炸的潛在風險?!?/span>
值得注意的是,在信息時代,大多數(shù)學術研究都依靠互聯(lián)網(wǎng),而互聯(lián)網(wǎng)上的信息將永遠存在。為其他研究人員開放數(shù)據(jù)集會增加伴生風險,但IRB在這一方面并沒有多少管轄權。因為從根本上說,數(shù)據(jù)共享與研究本身并不是一回事,因此它處在“一個奇怪的灰色監(jiān)管地帶”,Meyer解釋說。
如果IRB對研究可能導致的后果漠不關心,那么其他不受IRB標準約束的研究人員,就可以下載數(shù)據(jù)集并按照他們的意愿隨意使用。而被研究的對象卻對自己正在被研究這件事全然不知,這可能會導致各種消極的后果。
這些后果或許遠遠超出研究人員的想象。德國反監(jiān)視專家Adam Harvey在全球范圍內(nèi)發(fā)現(xiàn)了100多個引用杜克數(shù)據(jù)集的機器學習項目。他創(chuàng)建了一張地圖,用于追蹤這一數(shù)據(jù)集在全球的傳播情況,就像飛機的航線圖一樣,從杜克大學向各個方向延伸出長長的藍線,指向世界各地的大學、初創(chuàng)企業(yè)和研究機構,包括中國的商湯科技(SenseTime)和曠視科技(Megvii)。
每次有新項目訪問數(shù)據(jù)集時,損害可能導致的影響和范圍都會發(fā)生變化。數(shù)據(jù)的可移植性和互聯(lián)網(wǎng)的快速度結合在一起,大大擴展了一個研究項目的可能邊界,也把風險擴展到遠遠超出任何一所大學能承擔的范圍。
解決嘗試:建立學術審查系統(tǒng)
杜克大學最終決定刪除與該研究相關的數(shù)據(jù)集。斯坦福大學清除了研究人員基于舊金山咖啡館的顧客所創(chuàng)建的數(shù)據(jù)集。
科羅拉多大學博爾德分校信息科學系助理教授Casey Fiesler撰寫了關于在研究中使用公共數(shù)據(jù)的倫理學。Fiesler提出了一種用于審查數(shù)據(jù)集訪問的系統(tǒng),與審查版權類似。她指出,系統(tǒng)中的使用條款主要關注請求者計劃如何使用該數(shù)據(jù)。
“為這些數(shù)據(jù)集設置守門人是一個好主意”,她說,“因為只要明確使用目的,請求者就能夠訪問數(shù)據(jù)集?!鳖愃频囊?guī)則在開源軟件和Creative Commons的標準化版權許可協(xié)議上已有應用。
Creative Commons是一種基于許可的系統(tǒng),請求者只能將獲得的作品作為非商業(yè)用途,而一旦他們隱瞞或歪曲意圖,則需要承擔責任。這些標準可能與學術環(huán)境并不完全匹配,但至少在切斷后續(xù)傷害方面是有用的。“這并不是將規(guī)則繁瑣化,但它提出了一種方法,使得你無論決定要做什么時,都把前后因果考慮進去”,Fiesler說。
種族歧視&影響執(zhí)法
應用中暴露的技術盲區(qū)
當人臉識別技術走出實驗室,走進現(xiàn)實生活,它就被賦予了更多意義——你的臉將不再只是一張具有生物屬性的臉了。在足球比賽中,你的臉是貨幣,用于在體育場購買食物。在商場,它是一個賬本,用于告訴銷售人員你過去的購買行為以及購物偏好。在抗議中,你的臉會反映出你過去被逮捕的歷史。即使在太平間,臉也能幫助官方機構識別遺體。
隨著人臉承載的意義不斷加強,技術錯誤導致的后果嚴重性也隨之增強。在現(xiàn)階段的應用中,人臉識別技術的一些弊端已經(jīng)暴露。
識別準確度存在差異
加劇種族歧視
2016年麻省理工學院的研究員Joy Buolamwini研究表明,人臉識別技術的準確性在膚色較淺的男性中表現(xiàn)優(yōu)于膚色較深的男性,而對于膚色較深的女性則表現(xiàn)最差。
美國公民聯(lián)合會(ACLU)也發(fā)現(xiàn)了類似的問題。當ACLU將國會議員與犯罪數(shù)據(jù)庫進行匹配時,亞馬遜的Rekognition軟件對黑人議員的錯誤識別比白人議員多得多,盡管黑人議員在總體數(shù)量中占比更小。其中包括眾議院議長Elijah Cummings,一名巴爾的摩人。
對不同膚色人種間識別的準確度差異可能加劇種族歧視的指責,微軟和亞馬遜都聲稱,自麻省理工學院和ACLU的報告發(fā)布以來,公司已經(jīng)優(yōu)化了技術對識別不同種族在準確性方面的差異。但是,更準確地識別有色面孔只是技術需要改進的一部分,因為即使完全準確的技術仍然可以用來支持對有色人種有害的執(zhí)法措施。
對技術本身的改進和完善并不是最重要的議題,如何使用這項技術才更應該被關注。微軟和亞馬遜提出的解決方案是在技術應用后對面部識別存在問題進行糾正,但這只是亡羊補牢。
人臉識別執(zhí)法
可行性存疑
5月初,《華盛頓郵報》報道稱,警方正在使用面部識別軟件抓捕疑犯。一名目擊者向警方描述了嫌疑人的外貌,警察據(jù)此畫出草圖上傳到亞馬遜的Rekognition,并最終逮捕了某人。這一事件震驚了國會聽證會上的專家——提交給數(shù)據(jù)庫的草圖竟可以被當做逮捕嫌疑人的充分依據(jù)。
對此,亞馬遜網(wǎng)絡服務首席執(zhí)行官Jassy稱,亞馬遜從未收到對警方誤用技術的投訴。就在今年5月,亞馬遜股東投票否決了一項禁止向警方出售Rekognition的提案。亞馬遜的一位代表在一份聲明中說,“亞馬遜從未收到過任何公眾投訴,而且地方機構在使用Rekognition方面沒有任何問題?!?/span>
立法者&制造商:
把“危險的”人臉識別關進籠子
為了平衡人臉識別技術的回報與風險,華盛頓州、馬薩諸塞州、奧克蘭市以及美國立法機構提出了一系列監(jiān)管建議。眾議院監(jiān)督和改革委員會的共和黨人和民主黨人舉行了幾個小時的聽證會,并表示兩黨愿意共同努力來規(guī)范這項技術。
Face API和Rekognition軟件的制造商微軟和亞馬遜也對聯(lián)邦監(jiān)管表示支持。今年6月,美國排名第一的隨身攝錄機制造商Axon同意其道德委員會的建議,即不要讓Axon相機配備面部識別裝置。
去年,微軟總裁Brad Smith呼吁各國政府“立法來規(guī)范這項技術”。而亞馬遜網(wǎng)絡服務公司首席執(zhí)行官Andy Jassy在6月份表示附和,他將這項技術比作一把刀。這位來自世界上最強大的面部識別技術公司的高管想表達:這個東西很危險。
但在呼吁監(jiān)管方面,微軟和亞馬遜采取了一個巧妙的伎倆:他們沒有就面部識別是否應該被廣泛應用進行辯論,而是在討論這一技術應該如何被應用。
亞馬遜在《大西洋月刊》上發(fā)表的一份聲明中表示,它正在與研究人員、立法者及其客戶合作,“了解如何最好地平衡面部識別的益處和潛在風險”,并指出Rekognition具有多種用途,包括打擊人口販賣并找到失蹤人員。微軟重申Smith的聲明,表示支持面部識別法規(guī)的建立,包括施行針對濫用行為的規(guī)范,以及獲得被識別對象的許可。
但一些隱私專家認為這些公司別有用心。羅切斯特理工學院哲學教授Evan Selinger指責微軟和亞馬遜試圖“遏制強有力的監(jiān)管”。他認為,這些公司努力推動聯(lián)邦層面的監(jiān)管,是因為全國性的法律通常代表著底線,與地方性法律相比,它們不太可能對私營公司如何使用該技術進行限制。
目前看來,學術倫理和技術盲區(qū)的問題正在逐步解決,人臉識別的“狂奔”之路并不會因此減速。在人臉識別技術大范圍應用之前,這可能是我們擁有自己面孔的最后時光。
終有一天,我們的臉將不再屬于我們,但在此之前,我們對這項技術的了解決定了我們會成為受益者還是受害者。當科技公司不斷地縮小問題的討論范圍,將公共治理轉(zhuǎn)變?yōu)榉諚l款協(xié)議,我們能做的,就是在一方設定條款的時候,不要當不感興趣的另一方,只會簡單地說:“我同意”。