隨著人工智在日常生活中愈發(fā)普及,AI監(jiān)管的問(wèn)題也逐漸浮出水面,日漸棘手。本文翻譯自文章《Point: Should AI Technology Be Regulated?: Yes, and Here's How》,文中首先提出AI監(jiān)管勢(shì)在必行,其次闡釋了監(jiān)管的重點(diǎn)和難點(diǎn),接著分析介紹了規(guī)范人工智能的5條指南,旨在為相關(guān)部門(mén)的決策提出建議。文章最后,點(diǎn)明人工智能監(jiān)管中最棘手之處在于:它不僅是一個(gè)技術(shù)問(wèn)題,而且是一個(gè)社會(huì)學(xué)問(wèn)題,并呼吁倫理學(xué)家等多方學(xué)者參與,共同來(lái)解決AI監(jiān)管難題。
政府監(jiān)管對(duì)于預(yù)防帶來(lái)的傷害是非常必要的。但監(jiān)管是一種非常緩慢的過(guò)程,且很容易受到政治的干預(yù)。而且,當(dāng)監(jiān)管應(yīng)用于人工智能等快速發(fā)展的領(lǐng)域時(shí),錯(cuò)位的監(jiān)管可能會(huì)扼殺創(chuàng)新,破壞人工智能帶給我們的巨大的潛在好處,比如提高無(wú)人駕駛汽車(chē)的安全性、提高生產(chǎn)率等等。埃隆·馬斯克(Elon Musk)曾敦促美國(guó)政府盡早對(duì)人工智能進(jìn)行監(jiān)管,但我們也不希望監(jiān)管阻礙技術(shù)的創(chuàng)新和發(fā)展。
為此,研究人員提出了一個(gè)折中的方法:即避免過(guò)度監(jiān)管人工智能的研究,重點(diǎn)監(jiān)管和關(guān)注人工智能在交通運(yùn)輸、醫(yī)學(xué)、政治和娛樂(lè)等領(lǐng)域的應(yīng)用。這種方法不僅平衡了人工智能研究帶來(lái)的好處和人工智能系統(tǒng)可能的潛在危害,而且更具可操作性。
監(jiān)管AI到底有多棘手?
人工智能席卷全球的趨勢(shì)勢(shì)不可擋。如何監(jiān)管卻成了棘手的問(wèn)題。
監(jiān)管AI存在的第一個(gè)問(wèn)題就是如何定義AI?
曾經(jīng)的AI只是一個(gè)國(guó)際象棋游戲機(jī),但是現(xiàn)在,AI已融入我們的社交媒體、汽車(chē)、醫(yī)療設(shè)備等之中。技術(shù)進(jìn)步的速度太快,并且迅速地融入我們的生活中,導(dǎo)致機(jī)器和智能機(jī)器之間的界限開(kāi)始變得模糊不清。
比如“傷害(harm)”的概念就很難被納入算法中。自動(dòng)駕駛汽車(chē)可以大幅減少高速公路事故,但同時(shí)人工智能也可能會(huì)造成一些事故,而且人工智能造成的事故比普通的人為事故更容易使人受到傷害。因?yàn)锳I沒(méi)有常識(shí),所以可能會(huì)刪除尚未備份的博士學(xué)位論文。墨菲的人工智能定律是,當(dāng)你給AI一個(gè)目標(biāo)時(shí),無(wú)論你是否喜歡它實(shí)現(xiàn)其目標(biāo)的含義,AI都會(huì)做到這一點(diǎn)。人工智能在定義諸如“傷害”等模糊的概念方面幾乎沒(méi)有常識(shí)。
監(jiān)管雖然很難,但是必須監(jiān)管。那應(yīng)該采取哪些規(guī)則來(lái)解決過(guò)多、而且不充分的監(jiān)管問(wèn)題呢?本文建議從以下5個(gè)方面著手:
規(guī)范AI應(yīng)用的5個(gè)指南
1 不要將AI武器化
首先是制定針對(duì)人工智能武器和網(wǎng)絡(luò)武器的法規(guī)。馬斯克在給聯(lián)合國(guó)的一封信中說(shuō):“自主武器(autonomous weapons)開(kāi)發(fā)出來(lái)后,將會(huì)使武裝沖突的規(guī)模比以往任何時(shí)候都大,而且時(shí)間比人們想象地更快。自主武器可能會(huì)被用作恐怖武器,也可能被暴君和***用來(lái)對(duì)抗無(wú)辜的平民。所以我們不應(yīng)該創(chuàng)建應(yīng)用AI技術(shù)的殺戮機(jī)器。因此,第一個(gè)監(jiān)管原則是:“不要將AI武器化?!?/p>
2法律約束
第二個(gè)指南是人工智能應(yīng)受到適用于人類(lèi)操作員的全部法律約束。如果說(shuō)“the AI did it”即必須意味著作為AI的所有者、操作者或構(gòu)建者的人們做到了。作為AI的所有者、操作者或構(gòu)建者,即負(fù)責(zé)任的一方,必須確保AI不會(huì)傷害任何人;一旦對(duì)別人造成了傷害,就應(yīng)該承擔(dān)責(zé)任。但是如果造成了傷害,應(yīng)該可以區(qū)別出來(lái)是AI的擁有者,或者是生產(chǎn)商的責(zé)任,但是目前并沒(méi)有完善的法律體系來(lái)應(yīng)對(duì)這種情況。
3明確告知“自己是AI”
AI應(yīng)明確告知他人,自己是AI。這意味著Twitter聊天機(jī)器人、撲克機(jī)器人和其他人必須將自己標(biāo)識(shí)為機(jī)器,而不是人。因?yàn)?,已?jīng)有政治機(jī)器人對(duì)新聞文章發(fā)表評(píng)論,并產(chǎn)生不和諧的宣傳聲音。
4未經(jīng)批準(zhǔn)不得保留或披露機(jī)密信息
第四條指南是,未經(jīng)消息來(lái)源事先明確批準(zhǔn),AI不得保留或披露機(jī)密信息。比如從Amazon Echo,Google Home和智能電視中收集的數(shù)據(jù),或是看似無(wú)害的掃地機(jī)器人也可能創(chuàng)建精確的室內(nèi)地圖。未來(lái)隱私問(wèn)題只會(huì)越來(lái)越多越來(lái)越尖銳,需要更嚴(yán)格的隱私政策來(lái)保護(hù)人們及其信息。
5 消除偏見(jiàn)
AI應(yīng)用程序規(guī)則的第五個(gè)指南是AI不得增加或放大系統(tǒng)中已存在的任何偏見(jiàn)。 現(xiàn)在AI使用過(guò)去的數(shù)據(jù)來(lái)預(yù)測(cè)未來(lái)。假如,數(shù)據(jù)顯示白人違約率為60%,而有色人種違約率只有20%,那么種族信息就對(duì)算法很重要。
與AI相關(guān)的另一個(gè)相關(guān)問(wèn)題是,所有形式的AI(包括機(jī)器人,自治系統(tǒng),嵌入式算法)必須具有問(wèn)責(zé)性、可解釋性和透明性,以便人們能夠理解機(jī)器所做出的決策。美國(guó)的各州可以使用預(yù)測(cè)算法來(lái)計(jì)算囚犯未來(lái)構(gòu)成的風(fēng)險(xiǎn),并在法庭審判中用做量刑建議。人工智能和算法會(huì)用于決定誰(shuí)可以訪問(wèn)公共服務(wù)以及誰(shuí)接受執(zhí)法部門(mén)的額外審查。所有這些人工智能和算法的應(yīng)用都提出了關(guān)于人權(quán)、系統(tǒng)性偏見(jiàn)和長(zhǎng)期存在的不公平的棘手問(wèn)題。
這也引出了人工智能監(jiān)管中最棘手的問(wèn)題之一:即它不僅是一個(gè)技術(shù)問(wèn)題,而且是一個(gè)社會(huì)學(xué)問(wèn)題,需要倫理學(xué)家和其他各方參與使用他們的專(zhuān)業(yè)知識(shí)來(lái)解決監(jiān)管難題。
如何進(jìn)行監(jiān)管?
和其他法律法規(guī)一樣,單一的監(jiān)管機(jī)構(gòu)是不可行的,而是應(yīng)該嵌入現(xiàn)有的監(jiān)管機(jī)制之中。
比如,假設(shè)我有一輛無(wú)人駕駛汽車(chē)發(fā)生了事故。如果這是我的車(chē),我就會(huì)被認(rèn)為應(yīng)該負(fù)責(zé)。但可能是汽車(chē)技術(shù)工藝存在缺陷才導(dǎo)致的事故,在這種情況下,制造商應(yīng)該分擔(dān)責(zé)任。因此,無(wú)人駕駛汽車(chē)應(yīng)該遵守與我們?nèi)祟?lèi)相同的法律,受聯(lián)邦機(jī)動(dòng)車(chē)輛安全標(biāo)準(zhǔn)(Federal Motor Vehicle Safety Standards)和機(jī)動(dòng)車(chē)駕駛法律的監(jiān)督。
有些人可能會(huì)問(wèn):電車(chē)難題(trolley problem)怎么處理呢?如何對(duì)汽車(chē)進(jìn)行編碼來(lái)確定如何在電車(chē)難題中做出抉擇呢?這并不是一個(gè)工程問(wèn)題,而是一個(gè)哲學(xué)思想問(wèn)題。實(shí)際上,無(wú)人駕駛汽車(chē)將減少事故中受傷或死亡的人數(shù);由于算法做出選擇而導(dǎo)致某人受傷的極端情況只占事故的一小部分。以谷歌的自動(dòng)駕駛Waymo為例,它在美國(guó)已經(jīng)行駛超過(guò)200萬(wàn)英里,200萬(wàn)英里只有一次事故。其安全行駛率比任何駕駛員都低,大約比60-69歲的人低10倍,比新司機(jī)低40倍。
人工智能越來(lái)越普及,但是現(xiàn)有的監(jiān)管機(jī)構(gòu)尚未開(kāi)始監(jiān)管。但應(yīng)該盡早識(shí)別這些應(yīng)用程序,并確定監(jiān)管機(jī)構(gòu)來(lái)實(shí)現(xiàn)監(jiān)管目標(biāo)。我們必須認(rèn)識(shí)到法律法規(guī)的目的是保護(hù)人類(lèi)和社會(huì)免受傷害??梢酝ㄟ^(guò)人工智能的合作平臺(tái)和研究組織作為其對(duì)對(duì)人類(lèi)和社會(huì)影響的討論和參與的開(kāi)放平臺(tái)。蘋(píng)果和艾倫人工智能研究所等機(jī)構(gòu)正在合作制定人工智能技術(shù)的最佳實(shí)踐;紐約大學(xué)的AI Now研究所和哈佛大學(xué)的Berkman-Klein中心也正致力于制定人工智能的道德準(zhǔn)則。
-
機(jī)器人
+關(guān)注
關(guān)注
210文章
27838瀏覽量
204582 -
人工智能
+關(guān)注
關(guān)注
1787文章
46060瀏覽量
234979
原文標(biāo)題:人工智能監(jiān)管指南
文章出處:【微信號(hào):drc_iite,微信公眾號(hào):全球技術(shù)地圖】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論