成熟的人工智能可以讓世界變得更美好。它可能會(huì)讓我們戰(zhàn)勝癌癥,改善世界各地的醫(yī)療保健,或者干脆讓我們擺脫主宰我們生活的卑微工作。
這是上個(gè)月工程師、投資者、研究人員和政策制定者在人類層面人工智能聯(lián)合會(huì)議上聚集在一起的主要話題。
然而,一股恐懼的潛流也在一些談判中出現(xiàn)了。有些人擔(dān)心被機(jī)器人或代碼取代工作;其他人則害怕機(jī)器人起義??謶趾秃侠?yè)?dān)憂之間的界限在哪里?
為了將兩者分開(kāi),Futurism在會(huì)議上向五位人工智能專家詢問(wèn)了他們對(duì)未來(lái)的人工智能的恐懼。
希望,考慮到他們的擔(dān)憂,我們將能夠引導(dǎo)社會(huì)朝著更好的方向發(fā)展,我們將人工智能用于所有的好東西,比如對(duì)抗全球流行病或給予更多的人接受教育,而不是那些壞的東西。
問(wèn):當(dāng)我們談人工智能,我們?cè)诤ε率裁?
KENNETH STANLEY,佛羅里達(dá)中央大學(xué)教授,高級(jí)工程經(jīng)理和優(yōu)步艾實(shí)驗(yàn)室的工作人員
答:我認(rèn)為最明顯的擔(dān)憂是當(dāng)人工智能被用來(lái)傷害人類的時(shí)候。有很多不同的應(yīng)用程序可以想象這種情況的發(fā)生。我們必須非常小心,讓壞的一面消失。解決如何讓人工智能負(fù)責(zé)是一個(gè)非常棘手的問(wèn)題;它有更多的維度,而不僅僅是科學(xué)。這意味著所有的社會(huì)都需要參與到回答這個(gè)問(wèn)題中來(lái)。
關(guān)于如何開(kāi)發(fā)安全AI:
所有的技術(shù)都可以被用來(lái)做壞事,我認(rèn)為人工智能只是另一個(gè)例子。人類一直在努力不讓新技術(shù)用于邪惡目的。我相信我們可以做到這一點(diǎn):我們可以把正確的制衡機(jī)制放在適當(dāng)?shù)奈恢茫怪踩?/p>
我想我不知道我們應(yīng)該做些什么,但我可以提醒我們,我們要非常小心、循序漸進(jìn)地對(duì)人工智能的影響做出反應(yīng),并在我們前進(jìn)的過(guò)程中學(xué)習(xí)。
IRAKLI BERIDZE,聯(lián)合國(guó)UNICRI的人工智能和機(jī)器人中心主任
答:我認(rèn)為人工智能最危險(xiǎn)的是它的發(fā)展速度。危險(xiǎn)與否取決于它的發(fā)展速度以及我們能以多快的速度適應(yīng)它。如果我們失去了平衡,我們可能會(huì)陷入麻煩。
關(guān)于恐怖主義、犯罪和其他風(fēng)險(xiǎn)來(lái)源:
我認(rèn)為,對(duì)人工智能的危險(xiǎn)應(yīng)用,將是犯罪分子或大型恐怖組織利用它來(lái)擾亂大型進(jìn)程,或者僅僅是造成純粹的傷害。***可能通過(guò)數(shù)字戰(zhàn)爭(zhēng)造成傷害,也可能是機(jī)器人、無(wú)人機(jī)、人工智能和其他東西的結(jié)合,這可能是非常危險(xiǎn)的。
當(dāng)然,其他的風(fēng)險(xiǎn)也來(lái)自于失業(yè)。如果大量失業(yè)沒(méi)有找到解決辦法,那將是極其危險(xiǎn)的。像致命的自動(dòng)武器系統(tǒng)之類的東西應(yīng)該被妥善管理——否則就會(huì)有巨大的濫用的可能性。
關(guān)于如何前進(jìn):
人工智能技術(shù)具有雙重性。當(dāng)然,我的信念是,人工智能不是一種武器;人工智能是一種工具。它是一個(gè)強(qiáng)大的工具,這個(gè)強(qiáng)大的工具可以用于好的或壞的東西。我們的任務(wù)是確保其用于好的事情,從中獲得的好處最多,而且大多數(shù)風(fēng)險(xiǎn)都是可以理解和減輕的。
JOHN LANGFORD,微軟首席研究員
答:我認(rèn)為我們應(yīng)該警惕無(wú)人機(jī)。我認(rèn)為自動(dòng)化無(wú)人機(jī)在很多方面都是潛在的危險(xiǎn)。船上的無(wú)人駕駛武器的計(jì)算效率還不夠高,不足以做一些有用的事情。但在五到十年的時(shí)間里,我可以想象一架無(wú)人機(jī)可以在船上進(jìn)行足夠的計(jì)算,這樣它就能真正有用了。你可以看到,無(wú)人機(jī)已經(jīng)在戰(zhàn)爭(zhēng)中被使用,但它們?nèi)匀皇侨祟惪刂频?。他們沒(méi)有理由不能攜帶某種學(xué)習(xí)系統(tǒng),而且相當(dāng)有效。這是我擔(dān)心的問(wèn)題。
HAVA SIEGELMANN,美國(guó)國(guó)防部高級(jí)研究計(jì)劃局技術(shù)辦公室項(xiàng)目經(jīng)理
答:每一種技術(shù)都可以被用來(lái)做壞事。我認(rèn)為它掌握在使用它的人手中。沒(méi)有不好的技術(shù),只有不好的人。這取決于誰(shuí)能接觸到這項(xiàng)技術(shù)以及我們?nèi)绾问褂盟?/p>
TOMAS MIKOLOV,F(xiàn)ACEBOOK AI研究科學(xué)家
答:當(dāng)有很多人對(duì)某件事有興趣,并進(jìn)行投資時(shí),一些人便開(kāi)始濫用它。我發(fā)現(xiàn)有些人甚至在我們做人工智能之前就已經(jīng)開(kāi)始銷售人工智能了,這讓我感到不安,他們正在假裝知道它將解決什么問(wèn)題。
這些奇怪的創(chuàng)業(yè)公司也有一些很有前景的東西,這些都是很好的人工智能例子,當(dāng)它們的系統(tǒng)基本上是在優(yōu)化一條路徑時(shí),可能有人根本就不關(guān)心它,比如聊天機(jī)器人,它比上一個(gè)版本稍微好一點(diǎn)。也許在花費(fèi)了數(shù)萬(wàn)個(gè)小時(shí)的工作之后,通過(guò)過(guò)度優(yōu)化一個(gè)單一的價(jià)值,一些創(chuàng)業(yè)公司就會(huì)有這樣的大主張,他們確實(shí)取得了一些以前沒(méi)有人能做的事情。
但是,讓我們誠(chéng)實(shí)地說(shuō),這些團(tuán)體最近的許多突破,我不想說(shuō),沒(méi)有人關(guān)心,他們也沒(méi)有賺到錢(qián)。它們更像魔術(shù)。特別是那些認(rèn)為人工智能只是過(guò)度優(yōu)化單一任務(wù)的人,他們無(wú)法將其擴(kuò)展到除了非常簡(jiǎn)單的問(wèn)題之外的其他任何事情。
有些人甚至對(duì)這些系統(tǒng)有一點(diǎn)批評(píng),很快就會(huì)遇到與公司的崇高主張相違背的問(wèn)題。
-
人工智能
+關(guān)注
關(guān)注
1789文章
46663瀏覽量
237098
原文標(biāo)題:當(dāng)我們談人工智能,我們?cè)诤ε率裁矗?/p>
文章出處:【微信號(hào):worldofai,微信公眾號(hào):worldofai】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論