面對人工智能迅速發(fā)展以及其正在或可能引發(fā)的經(jīng)濟(jì)社會問題,我們必須積極探索并致力于形成務(wù)實(shí)管用、行之有效的人工智能治理體系。
以人工智能為代表的新一代信息技術(shù)正在深刻改變著世界,改變著人類生活。新技術(shù)亟待新治理。習(xí)近平總書記在致首屆世界人工智能大會的賀信中要求,堅(jiān)持推動發(fā)展和優(yōu)化治理緊密結(jié)合起來,進(jìn)一步健全治理體系,鋪設(shè)法治軌道,為人工智能發(fā)展注入更多安全因素。近日,剛剛落幕的“2020世界人工智能大會”圍繞“人工智能的權(quán)利義務(wù)與法治實(shí)踐”進(jìn)行了深入研討,進(jìn)一步引發(fā)了人們對人工智能治理的思考。應(yīng)當(dāng)說,一種新技術(shù)的出現(xiàn),都會引發(fā)有關(guān)舊的治理規(guī)則是否適用,以及是否需要制定新的治理規(guī)則的討論。互聯(lián)網(wǎng)治理經(jīng)歷了這個階段,人工智能治理也面臨同樣的境況。面對人工智能迅速發(fā)展以及其正在或可能引發(fā)的經(jīng)濟(jì)社會問題,我們必須積極探索并致力于形成務(wù)實(shí)管用、行之有效的人工智能治理體系。
當(dāng)前人工智能治理面臨多種困境
第一,治理松緊度難以把握。人工智能作為新一輪信息技術(shù)革命的重心和高科技的風(fēng)口,正在深刻地影響著人類社會的前進(jìn)軌跡。一方面,推動人工智能更好地發(fā)展,就要進(jìn)一步簡政放權(quán)、放管結(jié)合、優(yōu)化服務(wù),創(chuàng)造更加寬松的發(fā)展環(huán)境、更加公平高效的監(jiān)管、更加簡捷便利的服務(wù),為人工智能蓬勃發(fā)展清障助力。另一方面,人工智能也存在著巨大的風(fēng)險隱患,隱私數(shù)據(jù)被無節(jié)制使用、網(wǎng)絡(luò)安全漏洞層出不窮、技術(shù)壟斷越來越突出、現(xiàn)存?zhèn)惱碇刃蚴艿經(jīng)_擊和挑戰(zhàn)等,這些都是懸在人工智能之上的達(dá)摩克利斯之劍,隨時可能爆發(fā)“爆炸式”風(fēng)險或“踩踏式”風(fēng)險。人工智能治理隨之也陷入松和緊的兩難選擇困境。
第二,對智能技術(shù)本身的治理責(zé)任難以認(rèn)定。
牛津大學(xué)教授弗洛里迪和桑德斯依據(jù)行動者之互動關(guān)系標(biāo)準(zhǔn),確立交互性、自主性和適應(yīng)性三個標(biāo)準(zhǔn)以判定智能技術(shù)是否具備倫理責(zé)任主體地位。這一研究認(rèn)為,一個與其環(huán)境持續(xù)產(chǎn)生交互的系統(tǒng),如果在沒有響應(yīng)外部刺激的情況下也能行動,也有在不同的環(huán)境中行動的能力,這個系統(tǒng)就可以被視作行動者。倫理學(xué)界對人工智能技術(shù)的道德主體地位存在較大爭議。一種觀點(diǎn)認(rèn)為,雖然智能技術(shù)可以通過算法影響行為體的行動路徑,但因其尚未完全達(dá)到自主性和適應(yīng)性,將其判定為獨(dú)立的倫理行動者依據(jù)不足。另一種觀點(diǎn)認(rèn)為,智能技術(shù)已不僅僅是技術(shù)性輔助工具或起媒介作用的技術(shù)中介,在一定程度上,智能技術(shù)已經(jīng)主動介入或干預(yù)社會事務(wù)治理。后一種觀點(diǎn)認(rèn)為,人類智能由于其在限定的時間里的計算速度有限,很難在窮舉中得出最優(yōu)解,而往往通過經(jīng)驗(yàn)、直覺等方法得出自認(rèn)為滿意的答案。而人工智能通過合并算法和深度學(xué)習(xí)可以在極短的時間內(nèi)精確計算所有的可能性,從而使得它們能夠選擇人類完全沒有考慮過而“出人意料”的解決問題方法,作出的結(jié)論可能同人類認(rèn)知系統(tǒng)作出的決策有很大差異。人工智能還可能影響人類的價值判斷,比如,在新聞傳播領(lǐng)域,雖然互聯(lián)網(wǎng)企業(yè)不直接涉足新聞內(nèi)容制作,但其推薦的算法實(shí)際在對新聞價值從不同維度予以賦值,直接影響著大眾的新聞閱讀導(dǎo)向。
第三,治理時機(jī)的選擇困境。著名的“科林格里奇困境”指出了技術(shù)評估的兩難困境:在技術(shù)發(fā)展的早期控制其應(yīng)用方向相對容易,但此時決策者缺少合理控制的專業(yè)知識,也缺少對發(fā)展趨勢的準(zhǔn)確判斷,當(dāng)技術(shù)應(yīng)用的風(fēng)險顯露時,對它的控制已幾乎不可能。人工智能是基于互聯(lián)網(wǎng)、大數(shù)據(jù)、云計算等新一代信息技術(shù)而發(fā)展起來的技術(shù)科學(xué),新技術(shù)的發(fā)展具有很大的不確定性,基于新技術(shù)的人工智能發(fā)展同樣具有不確定性。當(dāng)前,人工智能發(fā)展進(jìn)入“無人區(qū)”,包括技術(shù)持續(xù)探索的無人區(qū),在應(yīng)用中摸索的無人區(qū),以及配套政策、法規(guī)、倫理的無人區(qū),無人區(qū)前路茫茫,既有重大發(fā)展機(jī)遇,也面臨突發(fā)性風(fēng)險挑戰(zhàn),對治理者來說最大的難點(diǎn)在于治理對象和風(fēng)險的不確定性,難以精準(zhǔn)施策、有效治理。
積極破解人工智能治理難題
在治理原則上,堅(jiān)持促進(jìn)創(chuàng)新和底線治理相結(jié)合。一方面,人工智能是創(chuàng)新性科學(xué)技術(shù),具有顛覆性和不可預(yù)見性等特征,其發(fā)展和應(yīng)用可能給經(jīng)濟(jì)社會帶來顛覆性變化。但這種改變遵從量變到質(zhì)變的演進(jìn)邏輯,只有當(dāng)技術(shù)發(fā)展到一定程度,與產(chǎn)業(yè)融合達(dá)到一定深度,并經(jīng)過大量試錯、校正和調(diào)整后,才可能帶來實(shí)質(zhì)性的改變。因此,人工智能治理必須秉持促進(jìn)創(chuàng)新、促進(jìn)發(fā)展的原則,只有在“必要”的時候才對其進(jìn)行規(guī)制,而且政府規(guī)制要遵循適時、適度的原則,盡量采用對技術(shù)發(fā)展干預(yù)最小的規(guī)制方式。另一方面,在放松規(guī)制的同時也要加強(qiáng)底線管理,確保對人工智能風(fēng)險的有效防范,尤其是要加強(qiáng)對諸如數(shù)據(jù)安全、技術(shù)壟斷、算法偏見、倫理道德等重點(diǎn)領(lǐng)域的規(guī)制。
在治理模式上,明確人工智能本身治理責(zé)任和構(gòu)建多元協(xié)同治理機(jī)制相結(jié)合。人工智能可以通過技術(shù)手段抓取個體或組織的信息,再通過算法對相關(guān)信息進(jìn)行分析和計算,進(jìn)而得出有關(guān)個體或組織的“畫像”;反之,人工智能還能夠根據(jù)所掌握的“畫像”信息,采取有針對性的措施來影響和干預(yù)相關(guān)主體。如此一來,人工智能在某種意義上就成為“另類”的治理主體。就目前的技術(shù)發(fā)展?fàn)顩r而言,更為重要的是確立人工智能商業(yè)機(jī)構(gòu)的倫理地位,賦予其相應(yīng)的治理權(quán)限,推動人工智能商業(yè)機(jī)構(gòu)加強(qiáng)企業(yè)自治。在此基礎(chǔ)上,推動人工智能從傳統(tǒng)的政府主導(dǎo)的權(quán)威自上而下的單向管理走向政府主導(dǎo)、企業(yè)自治、社會廣泛參與的協(xié)同治理模式,在確保發(fā)揮政府公共性、主導(dǎo)性作用的同時,又充分利用企業(yè)的效率高、專業(yè)性強(qiáng)的特點(diǎn),還能兼顧社會主體回應(yīng)快、訴求準(zhǔn)等特征,綜合多個主體、多種手段的優(yōu)勢,形成多元主體協(xié)同共治的人工智能治理新范式。要特別注重轉(zhuǎn)變政府職能定位,人工智能發(fā)展的開放性使得監(jiān)管機(jī)構(gòu)難以準(zhǔn)確定位監(jiān)管對象,信息不對稱問題的加劇還可能導(dǎo)致監(jiān)管行為走向反面。因此,要積極調(diào)整治理結(jié)構(gòu)與治理邏輯,推動政府從“劃槳人”向“掌舵人”轉(zhuǎn)變,促其將工作重心放到積極營造人工智能良好發(fā)展環(huán)境上。應(yīng)積極參與人工智能全球治理,以多種形式促進(jìn)人工智能重大國際共性問題的解決,共同應(yīng)對人工智能發(fā)展中的全球性挑戰(zhàn)。
在治理手段上,積極推行法律法規(guī)和公共政策前置治理相結(jié)合。為了走出“科林格里奇困境”,一些國家在人工智能倫理治理和立法實(shí)踐方面行動迅速,采取相對前置的治理模式,積極推動人工智能立法工作。比如,美國提出《人工智能未來法案》,重點(diǎn)就人工智能對經(jīng)濟(jì)發(fā)展、勞動就業(yè)、隱私保護(hù)等方面的影響進(jìn)行法律規(guī)制。中國也加快了與人工智能密切相關(guān)的立法項(xiàng)目,如數(shù)字安全法、個人信息保護(hù)法和修改科學(xué)技術(shù)進(jìn)步法等,已列入立法規(guī)劃。但從法律經(jīng)濟(jì)學(xué)角度看,法律和公共政策在一定程度上具有可替代性,都能起到規(guī)范社會秩序的作用。在某一階段,對某一具體問題,究竟是用法律,還是用公共政策,主要取決于問題本身的明確性和變化性。法律具有相對的剛性和滯后性,這也決定了它在應(yīng)對人工智能這類明確性較差、變化性較大的問題時往往會遇到一定的困難。相比之下,公共政策更為靈活,能夠?qū)ψ兓膯栴}相機(jī)作出反應(yīng),這使它在很多時候比法律更有效。比如,面對人工智能可能帶來的算法歧視問題,我們可以提前做好標(biāo)準(zhǔn)規(guī)范的制定、對從業(yè)人員職業(yè)倫理和專業(yè)技能的培訓(xùn),以及相關(guān)評價機(jī)制的建立,通過制定相對前置的公共政策以確保人工智能的技術(shù)中立性。由于這些政策相對靈活,可以根據(jù)現(xiàn)實(shí)情況及時調(diào)整,因此在多變的環(huán)境下可能比立法更管用。
-
算法
+關(guān)注
關(guān)注
23文章
4592瀏覽量
92524 -
人工智能
+關(guān)注
關(guān)注
1791文章
46696瀏覽量
237182 -
智能技術(shù)
+關(guān)注
關(guān)注
0文章
296瀏覽量
12812
發(fā)布評論請先 登錄
相關(guān)推薦
評論