人工智能正引發(fā)最重要的技術(shù)變革和社會變革,它在深刻改變?nèi)祟愇镔|(zhì)生產(chǎn)體系的同時(shí),也將對人類行為和社會關(guān)系產(chǎn)生深遠(yuǎn)的影響。
2018年以來,人工智能安全事故、倫理道德侵害事件頻發(fā),社會各界普遍關(guān)注,特別是全球首例自動(dòng)駕駛致死事件更是引發(fā)了公眾對人工智能發(fā)展的議論。
實(shí)際上,近年來伴隨人工智能向各行業(yè)、各領(lǐng)域的快速滲透,聯(lián)合國、電氣和電子工程師協(xié)會(IEEE)等國際組織已密集推出人工智能發(fā)展原則,以期為世界各國的人工智能監(jiān)管提供參考借鑒,歐盟、日本、新加坡等國家和地區(qū)已明確提出人工智能道德倫理準(zhǔn)則,人工智能從業(yè)者也在積極探索行業(yè)自律相關(guān)經(jīng)驗(yàn)。然而總體來看,準(zhǔn)則易定,實(shí)施難行,要克服道德準(zhǔn)則主觀性,要探索全球人工智能治理準(zhǔn)則,并達(dá)成多方共識,仍然有較長一段路要走。
1、人工智能安全事故多發(fā) 社會關(guān)注度日益提升
自動(dòng)駕駛車輛撞死路人,應(yīng)該由誰來擔(dān)責(zé)?
2018年3月,優(yōu)步自動(dòng)駕駛汽車在美國亞利桑那州坦佩市碰撞到一個(gè)橫穿馬路的行人,該行人在送往醫(yī)院后不治身亡,這是全球首起自動(dòng)駕駛車輛在公共道路上撞擊行人致死事件。意外發(fā)生時(shí),汽車處于自動(dòng)駕駛模式,駕駛座上有1名人類安全駕駛員,該駕駛員并未參與駕駛操作。那么,該由誰對這起事故承擔(dān)法律責(zé)任?人類駕駛員、汽車制造商沃爾沃公司還是自動(dòng)駕駛系統(tǒng)提供方優(yōu)步公司?
一年后的2019年3月5日,美國亞利桑那州檢察官裁定優(yōu)步公司不承擔(dān)刑事責(zé)任,同時(shí)建議警方對優(yōu)步的安全駕駛員進(jìn)行進(jìn)一步調(diào)查。理由是,這一自動(dòng)駕駛車輛處在自動(dòng)駕駛模式時(shí),其剎車的責(zé)任應(yīng)由安全駕駛員負(fù)責(zé)。即優(yōu)步公司的程序已設(shè)定,在自動(dòng)駕駛模式下,即使遇到緊急情況,系統(tǒng)也不能啟用緊急剎車功能,而是由人類駕駛員啟動(dòng)。優(yōu)步公司制定的這一算法規(guī)則成為該公司被裁定不承擔(dān)刑事責(zé)任的重要依據(jù),那么優(yōu)步這一規(guī)則的合理性又該由誰來判定?法律問題的背后實(shí)際是倫理準(zhǔn)繩的設(shè)定。
侵犯個(gè)人隱私,涉嫌種族歧視,這樣的人工智能產(chǎn)品和服務(wù)你能接受嗎?
日前,美國科技巨頭亞馬遜公司向執(zhí)法機(jī)構(gòu)、私人企業(yè)銷售人臉識別軟件Rekognition,美國媒體和公眾認(rèn)為,這將對個(gè)人隱私造成嚴(yán)重威脅。因?yàn)?,這款軟件可以讓政府和私企在任何有攝像頭的地方追蹤到普通民眾,同時(shí)相關(guān)技術(shù)還因?yàn)橛猩朔N被錯(cuò)誤識別匹配的比例過高而受到種族歧視的質(zhì)疑。
2018年7月,美國公民自由聯(lián)盟(ACLU)的一項(xiàng)測試顯示,Rekognition曾將535名美國國會議員中的28人誤判為罪犯。對于有色人種國會議員識別的錯(cuò)誤率為39%,遠(yuǎn)超對整個(gè)國會議員識別的錯(cuò)誤率。2019年1月,麻省理工學(xué)院的一項(xiàng)研究顯示,IBM和微軟公司研發(fā)的人臉識別與分析軟件也都存在種族和性別偏見問題。
人工智能用于研發(fā)戰(zhàn)爭機(jī)器人會加劇軍備競賽嗎?
早在21世紀(jì)初,美國已將無人系統(tǒng)用于軍事活動(dòng)。特別是近期,美國部署啟動(dòng)了諸多人工智能軍事項(xiàng)目,包括各類軍用無人車、無人機(jī)、無人船等。谷歌、微軟等公司都參與了軍用人工智能技術(shù)與系統(tǒng)的研發(fā)。
2018年4月,3100多名谷歌員工聯(lián)名請?jiān)福卮俟窘K止與美國國防部合作開發(fā)的Project Maven人工智能武器項(xiàng)目。
2018年2月,韓國科學(xué)技術(shù)院KAIST與韓國軍工企業(yè)Hanwha Systems合作共建“國防和人工智能融合研究中心”,該中心目標(biāo)是“開發(fā)應(yīng)用于軍事武器的人工智能技術(shù),參與全球自主武器研發(fā)競爭”,而Hanwha Systems的母公司韓華集團(tuán)因?yàn)橹圃旒鴱椝幰驯宦?lián)合國列入黑名單。2018年4月,全球20多個(gè)國家的50多名頂尖學(xué)者在公開信中聯(lián)名抵制韓國科學(xué)技術(shù)院的這一行為,“韓國科學(xué)技術(shù)院研發(fā)自主武器將會加速人工智能軍備競賽,這樣的技術(shù)可能導(dǎo)致更大規(guī)模戰(zhàn)爭加速到來,如果自主武器研制成功,戰(zhàn)爭速度之快、規(guī)模之大將是前所未有的,也有可能成為恐怖分子的武器”。
2、國際社會密集推出人工智能的應(yīng)用研發(fā)準(zhǔn)則
以聯(lián)合國為代表的國際組織,以及匯聚了眾多人工智能學(xué)術(shù)界和產(chǎn)業(yè)界人士的阿西洛馬會議等,都在積極探索相關(guān)原則與解決路徑,以期為世界各國的人工智能監(jiān)管提供參考借鑒。
聯(lián)合國高度關(guān)注人工智能與自動(dòng)化系統(tǒng)等應(yīng)用的安全、倫理和道德問題,呼吁共同應(yīng)對人工智能發(fā)展所帶來的全球性挑戰(zhàn)。
聯(lián)合國主要聚焦自動(dòng)化武器運(yùn)用,早在2014年便開始籌備起草《特定常規(guī)武器公約》,以限制人工智能殺手武器的研制,到2016年有包括中國在內(nèi)的123個(gè)國家的代表同意締結(jié)該公約。近兩年,隨著新一輪人工智能熱潮的到來,聯(lián)合國高度重視人工智能、機(jī)器人、自動(dòng)化等在民用領(lǐng)域的廣泛應(yīng)用。2016年8月,聯(lián)合國教科文組織與世界科學(xué)知識與技術(shù)倫理委員會聯(lián)合發(fā)布了《機(jī)器人倫理初步報(bào)告草案》,專門提出了機(jī)器人制造和應(yīng)用的倫理道德問題和責(zé)任分擔(dān)機(jī)制,并強(qiáng)調(diào)了可追溯性的重要性,即機(jī)器人的行為及決策過程應(yīng)全程處于監(jiān)管之下。
2017年6月,聯(lián)合國國際電信聯(lián)盟在日內(nèi)瓦舉行了主題為“人工智能造福人類”的全球峰會,圍繞人工智能的最新發(fā)展,人工智能對道德、安全、隱私以及監(jiān)管等帶來的挑戰(zhàn)展開討論,同時(shí)呼吁各國共同探討如何加快推進(jìn)人工智能大眾化進(jìn)程,并借以應(yīng)對貧困、饑餓、健康、教育、平等和環(huán)境保護(hù)等全球性挑戰(zhàn)。
2018年4月,聯(lián)合國“致命性自主武器系統(tǒng)問題政府專家組”在日內(nèi)瓦召開會議,80余國的官員及專家共同討論人工智能的武器化問題。
阿西洛馬人工智能原則探討如何確保人工智能為人類利益服務(wù)。這一原則源自2017年1月,未來生命研究所在美國加州的阿西洛馬市召開的題為“有益的人工智能”的人工智能會議。來自世界各地,覆蓋法律、倫理、哲學(xué)、經(jīng)濟(jì)、機(jī)器人、人工智能等眾多學(xué)科和領(lǐng)域的專家,共同達(dá)成了23條人工智能原則,呼吁全世界在發(fā)展人工智能的時(shí)候嚴(yán)格遵守這些原則,共同保障人類未來的利益和安全。這23條原則分為三大類,包括科研問題、倫理和價(jià)值問題以及更長遠(yuǎn)的問題。包括霍金、埃隆·馬斯克、德米斯·哈薩比斯等在內(nèi)的近4000名各界人士表示對此支持。
電氣和電子工程師協(xié)會嘗試構(gòu)建人工智能設(shè)計(jì)的倫理準(zhǔn)則。為切實(shí)推動(dòng)與人工智能倫理相關(guān)的標(biāo)準(zhǔn)制定,電氣和電子工程師協(xié)會分別于2016年12月和2017年12月發(fā)布兩個(gè)版本的《人工智能倫理設(shè)計(jì)準(zhǔn)則》,并始終強(qiáng)調(diào)自主與智能系統(tǒng)不只是實(shí)現(xiàn)功能性目標(biāo)和解決技術(shù)問題,還應(yīng)該造福人類。電氣和電子工程師協(xié)會早在2016年4月便發(fā)起“自主與智能系統(tǒng)倫理的全球性倡議”,數(shù)百名專家參與到人工智能倫理設(shè)計(jì)準(zhǔn)則的研究與討論中。他們來自學(xué)術(shù)界、產(chǎn)業(yè)界、政府部門以及非政府組織,具有計(jì)算機(jī)、數(shù)學(xué)、哲學(xué)、倫理學(xué)、社會學(xué)等多學(xué)科背景。
第二版準(zhǔn)則涵蓋一般原則、價(jià)值嵌入、指導(dǎo)合乎倫理的研究與設(shè)計(jì)方法、通用人工智能和超級人工智能的安全、個(gè)人數(shù)據(jù)與訪問控制、自主武器、經(jīng)濟(jì)和人道主義問題、法律、情感計(jì)算、政策法規(guī)、經(jīng)典倫理問題、混合現(xiàn)實(shí)、人類福祉指標(biāo)等13個(gè)方面內(nèi)容,同時(shí)針對一些倫理事項(xiàng)提出了具體建議。
該準(zhǔn)則已成為全球范圍內(nèi)系統(tǒng)、全面闡述人工智能倫理問題的重要文件,并在持續(xù)發(fā)展和完善中,預(yù)計(jì)最終版將于2019年發(fā)布。人工智能倫理準(zhǔn)則可以給電氣和電子工程師協(xié)會正在推動(dòng)的與人工智能倫理相關(guān)的標(biāo)準(zhǔn)制定提供參考,標(biāo)準(zhǔn)的制定則有望將人工智能倫理從抽象原則落實(shí)到具體的技術(shù)研發(fā)和系統(tǒng)設(shè)計(jì)中。
3、一些國家提出人工智能發(fā)展與治理的原則和框架
2018年以來,全球包括中國、美國、英國、日本、歐盟、印度、澳大利亞、加拿大、法國、德國、新加坡以及阿聯(lián)酋等10余個(gè)國家和地區(qū)在部署實(shí)施人工智能發(fā)展戰(zhàn)略時(shí),已明確將人工智能治理問題納入其總體戰(zhàn)略,提出確保本國人工智能健康發(fā)展的基本原則。其中明確提出人工智能道德倫理準(zhǔn)則的包括2018年6月新加坡發(fā)布的《AI治理和道德的三個(gè)新倡議》;12月歐盟發(fā)布的《可信賴的人工智能道德準(zhǔn)則草案》,日本內(nèi)閣發(fā)布的《以人類為中心的人工智能社會原則》等。德國計(jì)劃在2019年提出人工智能倫理原則。
綜合來看,這些國家和地區(qū)對人工智能治理進(jìn)行部署推進(jìn)的共同點(diǎn)主要包括四個(gè)方面。
一是堅(jiān)持以人為中心的人工智能治理理念。歐盟提出要堅(jiān)持“以人為中心”的發(fā)展原則,推動(dòng)發(fā)展符合歐洲倫理與社會價(jià)值觀和民眾愿望的人工智能,確保人工智能技術(shù)能夠給個(gè)人和社會整體帶來福利。日本提出人類中心原則,人工智能的使用不得侵害憲法和國際規(guī)范保障的基本人權(quán)。美國將“提升公眾對人工智能技術(shù)應(yīng)用的信任度,保護(hù)公民自由、隱私和價(jià)值觀,切實(shí)為國民帶來福祉”作為人工智能發(fā)展的五大基本原則之一。阿聯(lián)酋提出人工智能要負(fù)責(zé)任地發(fā)展,避免對人類造成巨大威脅。德國提出應(yīng)負(fù)責(zé)任地、以公共利益為導(dǎo)向發(fā)展和應(yīng)用人工智能,并積極為以數(shù)據(jù)為基礎(chǔ)的商業(yè)模式和價(jià)值創(chuàng)造路徑給出歐洲方案,使之符合歐洲的經(jīng)濟(jì)、價(jià)值和社會結(jié)構(gòu)。
二是設(shè)立專門委員會或?qū)<医M開展人工智能倫理道德規(guī)范研究,以為政府提供決策咨詢。歐盟組建了人工智能高級專家小組負(fù)責(zé)人工智能道德準(zhǔn)則的制定工作,小組52名專家來自谷歌、IBM、貝爾實(shí)驗(yàn)室、SAP、博世等全球領(lǐng)軍企業(yè)與研發(fā)機(jī)構(gòu)和牛津大學(xué)、伯明翰大學(xué)等知名學(xué)府以及若干社會組織。新加坡成立人工智能和數(shù)據(jù)道德使用咨詢委員會,以協(xié)助政府制定人工智能道德標(biāo)準(zhǔn)和治理框架。英國上議院人工智能特別委員會專門研究人工智能對經(jīng)濟(jì)、社會和道德倫理等的影響。德國數(shù)據(jù)倫理委員會負(fù)責(zé)人工智能技術(shù)發(fā)展與應(yīng)用中的倫理和法律問題研究。印度成立人工智能特別委員會,研究人工智能應(yīng)用可能產(chǎn)生的問題,并計(jì)劃在具體行使人工智能技術(shù)研究和成果轉(zhuǎn)化職能的兩大類機(jī)構(gòu)中設(shè)立道德委員聯(lián)合會,以制定有關(guān)隱私、安全和道德的行業(yè)特定準(zhǔn)則等。
三是積極參與人工智能全球治理。阿聯(lián)酋人工智能部早在2018年2月便召開了一次關(guān)于人工智能全球治理的頂級閉門會議,討論人工智能對人類社會帶來的挑戰(zhàn),并試圖尋找解決方案,當(dāng)年11月,阿聯(lián)酋人工智能部長表示將盡快舉辦全球人工智能治理論壇,以期在人工智能治理方面與全球達(dá)成共識。英國也希望能夠與他國共同塑造人工智能研發(fā)和使用的倫理框架,并醞釀在2019年舉辦全球峰會,與各國、行業(yè)、學(xué)術(shù)界和民間團(tuán)隊(duì)一道在平等的基礎(chǔ)上,商討制定人工智能研發(fā)和應(yīng)用的全球通用倫理框架。
四是加快調(diào)整部分領(lǐng)域監(jiān)管規(guī)則,尋求相關(guān)行業(yè)健康發(fā)展。在自動(dòng)駕駛領(lǐng)域,美國交通部于2017年9月更新了聯(lián)邦自動(dòng)駕駛汽車政策《自動(dòng)駕駛系統(tǒng):安全愿景2.0》,確定了12項(xiàng)安全性能自評標(biāo)準(zhǔn),以為自動(dòng)駕駛行業(yè)提供非監(jiān)管性指導(dǎo),企業(yè)可以據(jù)此提交安全評估報(bào)告。美國、德國、英國、新加坡和韓國等都引入了公共道路的自動(dòng)駕駛汽車法規(guī)并頒發(fā)自主測試許可證。德國自動(dòng)駕駛汽車道德委員會是德國聯(lián)邦政府為制定自動(dòng)駕駛汽車相關(guān)法律法規(guī)設(shè)置的專門機(jī)構(gòu)。在智能醫(yī)療領(lǐng)域,2017年7月,美國食品藥品監(jiān)督管理局(FDA)建立了一種針對低風(fēng)險(xiǎn)醫(yī)療人工智能產(chǎn)品的全新監(jiān)管方式——“數(shù)字醫(yī)療軟件預(yù)認(rèn)證計(jì)劃”,隨后FDA選擇了9家企業(yè)開始實(shí)施試點(diǎn)項(xiàng)目,試點(diǎn)項(xiàng)目結(jié)束后,F(xiàn)DA旗下專門負(fù)責(zé)醫(yī)療設(shè)備及科技監(jiān)管的機(jī)構(gòu)器械和輻射健康中心根據(jù)在上述試點(diǎn)項(xiàng)目中確定的客觀標(biāo)準(zhǔn)來“預(yù)先認(rèn)證”具備資格的數(shù)字醫(yī)療開發(fā)主體。經(jīng)過預(yù)認(rèn)證的開發(fā)主體可以直接銷售自己的低風(fēng)險(xiǎn)醫(yī)療人工智能產(chǎn)品,而無須經(jīng)過FDA的額外審查和一系列入市審查。
4、產(chǎn)業(yè)界探索行業(yè)自律經(jīng)驗(yàn)
人工智能產(chǎn)業(yè)界、行業(yè)協(xié)會等也將人工智能治理作為重要議題開展相關(guān)研究,成為行業(yè)自律的重要經(jīng)驗(yàn)探索。微軟、谷歌、IBM、百度、騰訊、索尼、西班牙電信、德國SAP等公司都已明確提出公司人工智能研發(fā)與應(yīng)用的核心原則,美國信息技術(shù)產(chǎn)業(yè)委員會則頒布了人工智能的14條政策準(zhǔn)則,對人工智能系統(tǒng)的設(shè)計(jì)、部署與應(yīng)用等的安全性提出要求,并探討了企業(yè)、政府、研究機(jī)構(gòu)應(yīng)采取什么樣的運(yùn)作及合作方式,以確保人工智能發(fā)揮最大的積極效益。
微軟公司總裁布拉德·史密斯表示,要設(shè)計(jì)出可信賴的人工智能,必須采取體現(xiàn)道德原則的解決方案,因此微軟提出6個(gè)道德基本準(zhǔn)則,即公平、包容、透明、負(fù)責(zé)、可靠與安全、隱私與保密。在經(jīng)歷了員工聯(lián)合請?jiān)甘录螅雀韫綜EO桑德·皮查發(fā)表署名文章《谷歌AI的原則》,詳述了人工智能七大原則,即造福社會、避免偏見、確保安全、對人負(fù)責(zé)、保護(hù)隱私、遵守嚴(yán)格的科學(xué)標(biāo)準(zhǔn)、避免有潛在危害或可能被濫用的技術(shù)與應(yīng)用,同時(shí)還明確了未來將嚴(yán)格堅(jiān)守的四大底線等。DeepMind公司于2017年10月成立了“人工智能倫理與社會部門”,旨在理解人工智能的現(xiàn)實(shí)影響并幫助技術(shù)人員將倫理付諸實(shí)踐,該部門于2018年啟動(dòng)關(guān)于算法偏見、問責(zé)制和自主殺人機(jī)器等課題項(xiàng)目的研究,希望可以幫助社會預(yù)測人工智能的影響,并根據(jù)預(yù)測結(jié)果給予正確的引導(dǎo),確保人工智能給人類社會帶來正面作用。德國商業(yè)軟件巨頭SAP于2018年9月發(fā)布了一份道德規(guī)范來管理其人工智能研究,并提出七條準(zhǔn)則,旨在防止人工智能技術(shù)侵犯人們的權(quán)利,參與制定這一規(guī)范的包括工程師、神學(xué)家、政治家和生物倫理學(xué)家等。
總體來看,全球主要國家對人工智能治理仍然僅僅停留在原則和框架層面,具體到人工智能技術(shù)開發(fā)規(guī)則,比如如何使之嚴(yán)格遵守“人工智能系統(tǒng)不傷害人類”“人工智能決策應(yīng)具備可解釋性”等規(guī)則,各國都尚未提出明確的解決方案。理應(yīng)涵蓋技術(shù)開發(fā)、行業(yè)監(jiān)管和公共治理等在內(nèi)的成體系化的法律和規(guī)范建設(shè)尚顯遙遠(yuǎn)。同時(shí)在產(chǎn)業(yè)領(lǐng)域,各國、各企業(yè)由于文化傳統(tǒng)和價(jià)值觀不同,彼此在人工智能部署原則上也有差異,比如美國、歐盟和中國對自動(dòng)駕駛實(shí)施監(jiān)管和規(guī)范的態(tài)度彼此就存在一定的差異。當(dāng)前,全球人工智能應(yīng)用的快速普及以及跨國界、跨區(qū)域要素的加速流動(dòng)和產(chǎn)業(yè)互動(dòng),正為各方提出前所未有的挑戰(zhàn),國際社會理應(yīng)盡快形成人工智能全球治理通用或一致性框架,確保人工智能為人類所用,并促進(jìn)全人類平等受益。
評論
查看更多