近來,人工智能成為熱詞,這次不是因?yàn)槟巢靠苹秒娪?,而是因?yàn)槔碚撐锢韺W(xué)家斯蒂芬·霍金、特斯拉公司首席執(zhí)行官埃倫·馬斯克等一些科學(xué)家、企業(yè)家及與人工智能領(lǐng)域有關(guān)的投資者聯(lián)名發(fā)出的一封公開信。他們?cè)谛胖芯嫒藗儽仨毟嗟刈⒁馊斯ぶ悄艿陌踩约捌渖鐣?huì)效益。要警惕其過度發(fā)展,并提醒科學(xué)家和研發(fā)人員關(guān)注強(qiáng)人工智能的潛在威脅,因?yàn)榈玫匠浞职l(fā)展的人工智能或許預(yù)示著人類最終被超越。
斯蒂芬·霍金曾警告“人工智能的全面發(fā)展可能意味著人類的終結(jié)”;伊隆·馬斯克擔(dān)心人工智能的發(fā)展可能是人類生存面臨的最大威脅;比爾·蓋茨則提醒人們要小心人工智能。由于他們的影響力,人工智能威脅論因此得到廣泛傳播。而有一個(gè)有趣的現(xiàn)象是,提倡人工智能毀滅人類的基本是物理學(xué)家,企業(yè)家,但最了解人工智能原理的科學(xué)家,確幾乎沒有一位認(rèn)為人工智能對(duì)人類有威脅。
在人工智能的問題上霍金認(rèn)為,“如果人類繼續(xù)這樣無止境地開發(fā)人工智能,那么總有一天,人工智能將擁有自己的發(fā)展方式?!倍鴮?duì)于這個(gè)問題有人有著不同的看法。庫茲韋爾表示,他更愿意相信,如果人工智能真正地融入了社會(huì),它將幫助人類解決一些社會(huì)問題。但是他也承認(rèn),沒有人能夠保證人工智能一定會(huì)有利于人類發(fā)展?!拔艺J(rèn)為,面對(duì)潛在的風(fēng)險(xiǎn),最好的方式就是繼續(xù)保持民主、包容和自由的價(jià)值觀?!?/p>
人類對(duì)未知事物產(chǎn)生恐懼并不是什么新鮮事,但是,著名的理論物理學(xué)家及硅谷企業(yè)家和微軟創(chuàng)始人對(duì)人工智能的擔(dān)心,則為這種恐懼增添了新的注解。像科幻電影一樣,擔(dān)心機(jī)器人會(huì)奮起革命似乎有點(diǎn)自欺欺人,重要的是如何合理的進(jìn)行分析。
如果人工智能只是一種可以代替人類工作的機(jī)器,它的出現(xiàn)并不足以讓人們恐懼。當(dāng)機(jī)器幫助我們創(chuàng)造世界上大部分財(cái)富的時(shí)候,困擾人類的充其量不過是一個(gè)從未得到解決的財(cái)富分配問題,還不足以帶來毀滅性的災(zāi)難。也就是說,人工智能存在比替代人類工作更深層的威脅。
從歷史來看,每一次新生事物的誕生,某些人都會(huì)感覺有威脅?,F(xiàn)在機(jī)器人來了,很多工廠流水線上的工人就感覺要下崗了。歷史上從來沒有一樣新生事物會(huì)受到全部人的歡迎,總有一部分人會(huì)感受到威脅。問題是怎樣面對(duì)威脅?人類不能因?yàn)橛幸徊糠秩耸艿酵{,或者有反對(duì)的聲音,就不前進(jìn)了。
任何事物都有兩面性,科學(xué)也是一把雙刃劍??茖W(xué)新發(fā)現(xiàn)、新發(fā)明在推動(dòng)社會(huì)向前發(fā)展,在對(duì)一部分人造成威脅的同時(shí),也創(chuàng)造出很多發(fā)展機(jī)遇,只要我們掌握新知識(shí)、新技術(shù),就會(huì)找到廣闊的發(fā)展空間。如果我們能直面威脅,積極應(yīng)對(duì),順勢(shì)而為,勇于創(chuàng)新,更有可能屹立潮頭,成為新時(shí)代的驕子。
人工智能的發(fā)展是伴有威脅的,其中最為突出的威脅是超級(jí)智能機(jī)器或許有一天會(huì)反制人類、奴役人類。盡管這一威脅在未來幾十年內(nèi)不會(huì)成真,但一些專家已對(duì)此表達(dá)了嚴(yán)肅關(guān)切,呼吁妥善引導(dǎo)人工智能發(fā)展,避免未來可能出現(xiàn)的隱患。
責(zé)任編輯 LK
-
機(jī)器人
+關(guān)注
關(guān)注
210文章
28105瀏覽量
205853 -
人工智能
+關(guān)注
關(guān)注
1789文章
46666瀏覽量
237102
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論