在上周一的一致投票中,舊金山的一個政府委員會推動該市朝著全面禁止政府使用人臉識別技術的目標邁進。這將是美國第一個這樣做的城市:隨著警察、政府機構和企業(yè)被這項技術所吸引,既沒有聯邦法律,也沒有嚴格的地方法規(guī)來管理這項技術的使用。我們中的許多人似乎對旨在公共場合自動識別或介紹自己的監(jiān)視系統(tǒng)心存警惕,這看起來無關緊要,實則是最令人擔憂的。
Accenture負責人工智能板塊的主管Rumman Chowdhury(拉姆曼?喬杜里)上月在Twitter上寫道:“我們?yōu)檫@些技術辯護的理由存在一個根本性問題。”他指的是舊金山的提議?!拔覀兩钤谝粋€足夠危險的狀態(tài),以至于我們需要這個嗎?”懲罰性監(jiān)督是幫助我們實現一個健康和安全的社會嗎?”
我對任何正在被迅速采用的新技術——AR、VR、大數據、機器學習——存在著疑問“為什么?”“為什么企業(yè)或政府需要人臉識別?”“‘我們’沒有為這些技術辯護,”我回答。“當權者大多會從中獲利。這要么是通過制造或銷售設備,要么是使用技術來取代工作人員。這與社會甚至文明無關,而是與金錢和權力有關?!?/p>
但金錢和權力并不是推動人臉識別的唯一原因。合作是人類長久以來的生存之道,自從人類出現以來,就有必要將一些人歸類為“他者”。不幸的是,我們中一些人身份和行為會讓人誤解,從而導致了公民、政府和執(zhí)法部門感到恐懼和不安。今天,那些可怕的想法,加上更大、更流動、更多樣化的人口,創(chuàng)造了一種條件,在這種條件下,我們知道彼此,但不了解彼此,除非絕對必要,否則我們也不經常與“對方”打交道。我們的這種恐懼成為加強“安全性”的另一個理由。可就算我們花費大量的時間經營與周邊人的關系,秉承開放、合作的心態(tài),減少恐懼,可還是會有人提出需進一步加強安全性來造福大家。
互相監(jiān)視的實驗
然而,我們所謂的“方法”,只不過是在記錄別人的信息而已。我們使用的一種識別他人身份的方法,是通過使用監(jiān)控攝像頭。隨著監(jiān)控設備的價格越來越低,各式各樣的企業(yè)都以提高安全性為名義,安裝監(jiān)控設備,比如在實體店安裝攝像頭,以防止盜竊和暴力。安保人員可以觀看監(jiān)控視頻來代替監(jiān)視人們; 但隨著時間的推移,攝像機已經取代了許多保安人員。通過這種方式,監(jiān)控錄像的做法實則是造成一種心理威懾,如同警察的存在: 是的,我們被錄了下來,但我們不知道是否有人在看錄像,也不知道他們是否會對他們所看到的不良行為采取行動。
隨著監(jiān)控攝像頭變得更小和更便宜,它們可直接被嵌入更多的消費產品中,為人們在日常生活中使用這項技術提供了機會。智能手機的攝像頭、Ring制造的智能門鈴,以及類似于隱藏在AirBnB(以及社會上許多其他地方)里的微型監(jiān)控攝像頭,都已成為常態(tài)。監(jiān)控已經存在于政府、企業(yè)和我們每個人之間,因為我們每個人都攜帶著智能手機或攝像機。
與更廣泛的監(jiān)控相比,家中的攝像頭在抵御“他人”威脅方面具有優(yōu)勢?!凹沂且粋€相對封閉的環(huán)境,任何異常都可以被房主或他們的軟件實時識別和報告。房主們對自己的房產保持警惕,可能會使用額外的應用程序向他們提供實時的監(jiān)控情況;而且在很多情況下,他們還會聘請第三方安全公司來進行額外的監(jiān)視。在私人家庭環(huán)境中需處理的監(jiān)控數據信息很少,并且鄰居們也在用其他的方法來監(jiān)視小區(qū)周圍環(huán)境。
但在社會上使用監(jiān)控攝像頭技術存在一個明顯的問題:攝像頭的大量使用,出現了大量的連續(xù)鏡頭,從而在處理數據信息方面出現了問題。你所能看到的每個攝像頭,都有大量的連續(xù)鏡頭做備份(更何況還有你看不到的攝像頭),但是很明顯,并沒有足夠的人或資源來處理這些圖像數據信息,那么監(jiān)控記錄的意義又在哪里呢?雖然發(fā)現了罪犯,行兇者也有可能在開始錄像的幾個小時或幾天之前逃跑。
即便是有一種方法可以梳理監(jiān)視數據,找到足夠的數據來識別某人或他們的車輛,罪犯有效記錄在案的資源通常也不存在。有時在我們住所之外發(fā)現的相互關聯且復雜的監(jiān)控系統(tǒng),只有當我們大多數人相信可以利用所發(fā)現的數據做些什么時,才會發(fā)揮作用。
當一項技術不起作用時,我們可能會引入迭代式的創(chuàng)新,作為改進,這就是監(jiān)控攝像頭可能發(fā)生的情況。例如,市政當局很快就為警察配備了可穿戴攝像頭。支持這些隨身相機的一個理由是,它們可以監(jiān)督公民(以及官員)更守規(guī)矩;另一種說法是,它們可以協助調查,或許很快就能實現實時監(jiān)控。然而,這種方法并非沒有缺點,因為警察資源仍然很少,而且存儲和管理所有隨身攝像機所拍攝視頻的成本對許多警察部門來說是巨大的。與此同時,許多人認為,通過更好的實踐、培訓和社區(qū)互動,而不是“更好”的技術,可以做更多事情來改善治安。
創(chuàng)新下一代監(jiān)控技術
這些方法的最終結果是,導致我們現在擁有的監(jiān)控攝像頭可能由于多種原因而不起作用,但它們已經成為公共監(jiān)控的一個組成部分,而且在更大的一些場所,如公司、商店等,也成為監(jiān)控的一部分。在一個比較復雜的且需要人進入的環(huán)境中,人們往往希望在已有的基礎上找到一個快速、廉價的解決方案,因為這樣就只需增加附加功能就能達到想要的效果。這就是面部識別開始被認為是萬靈藥的原因,成為原有監(jiān)視設備基礎設施的“附加組件”。
大眾傳媒對這一概念也有貢獻。在科幻小說中,人臉識別技術能發(fā)揮自己的作用。電影贊美偵探和警察,他們通過面部識別捕捉壞人來拯救人類。但這不是現實,因為科幻小說是照本宣科的,它的情節(jié)和角色在任何一個相互依賴的社會中都無法發(fā)揮作用,因為現實社會有著有各式各樣的信仰和問題。魅力無窮的大預算科幻電影,其運用的炫酷科技手段吸引了技術專家和市政當局的注意,因為前者想要利用小說來建立技術的模版;而后者在與財政赤字做斗爭的同時,能看到最新最好的技術是成功和地位的象征。技術人員可能并不經常關心或熟悉他們所構建的東西將如何影響社會。與此同時,一些市政當局似乎要么掩蓋新技術的潛在成果和影響,繼續(xù)為科技公司提供一個免費的測試平臺,要么誤解了這些技術將給城鎮(zhèn)帶來怎樣的變化。
從本質上講,面部識別提供了一個偉大的承諾,可以像在電影中那樣,輕松地識別和抓住壞人,而不需要建立任何人際關系和了解社區(qū)中人們干的“臟活”。對警察來說,使用軟件要比與潛在的危險罪犯互動安全得多,或者冒險與人接觸,卻發(fā)現他們實際上根本不是罪犯。通過這種方式,由監(jiān)控攝像頭組成的社會技術框架(現在可能包括面部識別)開始被用作社區(qū)知識和行為的代表。
但是,這些數據并不能準確地替代社區(qū)知識,因為它可能被誤解和誤用。這項技術并不是對所有人都平等、公平地適用,尤其是對那些非白人和跨性別的人來說。麻省理工學院(MIT)去年的一項研究發(fā)現,三種常見的面部分析系統(tǒng)顯示,淺膚色男性的錯誤率為0.8%,而深膚色女性的錯誤率為34.7%,尤其是在執(zhí)法場景中,找錯人帶來的風險更加嚴重。
從面部識別到側寫
人臉識別軟件是對監(jiān)控攝像頭的一種創(chuàng)新,它被用來解決一個社會問題。但是只有人,而不是技術,才能解決社會問題。然而,人們可能不得不應用技術來解決這些問題,而這正是我們陷入困境的癥結所在:什么技術是合適的,什么不是,我們使用什么工具,就像Dr. Chowdhury和其他人所要求的那樣,來構建一個“安全和健康的社會”?
廣泛使用價格低廉、沒有監(jiān)管和極具透明的人臉識別工具容易令人們感到不安。此外,目前還不清楚人手短缺、預算緊張或缺乏技術經驗的警察部門是否會遵守面部識別軟件供應商制定的自愿規(guī)則。
一旦像亞馬遜這樣的公司的面部識別軟件得到廣泛應用——我們是這些異類實驗的對象——下一個技術進步應用可能會被引進:人工智能通過利用面部識別得出關于我們和我們的行為的結論。這就是目前中國正在發(fā)生的事情,人工智能和人臉識別正被用于監(jiān)視1100萬維吾爾族(一個穆斯林少數民族)。
最近報道稱:“這種人臉識別技術被整合到中國迅速擴張的監(jiān)控攝像頭網絡中,只根據維吾爾人的外貌來尋找他們,并記錄他們的行蹤,以便進行搜索和審查?!薄斑@種做法使中國成為應用下一代技術觀察其人民的先驅,可能會開啟一個自動化種族主義的新時代?!?/p>
中國有關部門和企業(yè)正在利用該技術在大型公共活動中抓捕犯罪嫌疑人,以及在更日常的情況下使用該技術,例如在機場和酒店認出尋找的人,鎖定在人行橫道上羞辱亂穿馬路的人,找準用戶做針對性廣告。人臉識別技術也正在美國各地蔓延,從用于邊境安全到制作冰箱貨架上的個性化廣告。紐約一家房地產集團最近試圖為其公寓大樓內的每個公寓單元創(chuàng)建基于人臉識別的鑰匙。
也許我們正處在一些技術的尖端,這些技術將以一種對我們來說是全新的方式回歸,既挑戰(zhàn)我們的底線,又考驗我們的社會規(guī)范。例如,一旦我們走到哪里都被“認識”,那么,就像其他跟蹤和識別我們的數據所做的那樣,我們可以不斷地被“剖析”。當我們被“剖析”時,人們認為我們的行為可以通過算法預測。一旦我們的行為可以被政府和營銷人員“預測”出來,那么我們可能會在算法面前失去我們的主動權,算法生成的“可信數據”要遠遠多于從我們的賬戶信息獲取的數據信息。
當所有各方都能創(chuàng)造一個他們自己可接受的結果時,就能實現合作。雖然人們有時可能會放棄自己的代理權來得到他們想要的結果,但這種做法并不常見。這就是奴役。沒有代理權,沒有能力選擇自己的形象或銷售方式,破壞了合作的基礎。為了“方便”而利用面部識別的人工智能應用,在圍繞監(jiān)控技術的技術“創(chuàng)新”中,變得更加危險,因為我們被迫將越來越多的信息暴露出來。
徹底禁止使用該軟件的努力面臨阻力。國會議員和微軟等公司大多在推動相關規(guī)定,其中包括強制要求在公共場合使用面部識別工具時,需使用清晰的標識來提醒人們。但這種做法表示,除了主動離開該區(qū)域,否則你沒有辦法選擇退出監(jiān)視,標識給人們提供了不合理的選擇。如果沒有辦法選擇退出這個潛在的強大監(jiān)控系統(tǒng),人類就會開始成為奴隸。這就是為什么能夠限制面部識別的嚴肅的、可執(zhí)行的法律是至關重要的,也是為什么在我們的技術發(fā)展到這個關鍵時刻,這種討論顯得如此重要的原因。
一旦面部識別和其他人工智能變得普及,在缺乏嚴格的可強制執(zhí)行的法律來保護這項技術的情況下,我們將不受保護;也就意味著,為了滿足政府和企業(yè)的目的,我們的身份信息和地理位置信息將被利用。這就是貪婪、利潤和權力作為激勵因素發(fā)揮作用的地方。
如果我們想要識別出危險分子,也許他們就是那些希望我們喪失自己的面孔、身份和異質性的實體——不僅僅是為了讓他們獲利,而是作為一種自動分類和社會控制的手段。這就是為什么面部識別技術會成為我們重點討論的對象,也是為什么越來越多的人希望在我們的社會中禁止使用它的原因。
評論
查看更多