人工智能是人類創(chuàng)造的產物,它應該永遠是人類文明發(fā)展和人類幸福的工具,沒有任何理由讓一個工具去損傷甚至毀滅目的本身。
我們正在快速地走進“人工智能時代”。我們已經可以看到特斯拉工廠和富士康工廠中繁忙的精密制造機器人,在美國硅谷街上行駛的谷歌無人駕駛汽車,阿法狗對人類一流圍棋選手的橫掃,以及Nature等頂級雜志連續(xù)關于運用人工智能超過醫(yī)生對疾病診斷準確性的報道。只要建立了有效樣板,高科技的發(fā)展已經能夠使技術的傳播獲得指數性的增長。
我們從對網絡和智能手機擴展過程的理解、根據人工智能具有極大提高生產效率的優(yōu)點,就可以預測到人工智能產品在各個領域的發(fā)展和蔓延也將是爆炸性的、難以阻擋的,而這意味著人工智能對人類工作的取代也將是不可避免的、很可能是爆炸性的。斯坦福大學一位教授的預測是:48%的美國的工作可能被人工智能取代,而70%的中國的工作可能被人工智能取代。這些幾乎不可思議的變化都很可能在30年內發(fā)生,而這就需要我們立即開始準備應對人工智能的挑戰(zhàn)和威脅。
與此同時,大數據科學和技術的快速發(fā)展,竟使大數據在哲學上獲得了極高的位置。有一個新興的哲學理論叫做“Dataism”(“數據主義”),可能成為“人工智能時代”重要的哲學理論。
以色列教授尤瓦爾·赫拉利在他風靡不少國家的著作《未來簡史》的結尾寫到:“以下三個關鍵的問題,我希望你在讀完這本書的很久以后還深深地印在你的腦海里:1)生物體真的只是算法,而生命真的只是一個數據處理的過程?2)什么是更有價值的,是智力還是意識?3)如果沒有意識而又有很高智力的算法了解我們比我們自己更多,這將對社會、政治和日常生活意味著什么?”
“人工智能時代”的最大特征是“人工智能”及與其緊密相關的大數據科學和技術的快速發(fā)展??梢哉f“人工智能”和大數據科學的發(fā)展是在相對論和量子力學之后,科學技術發(fā)展對人類的思想、經濟和生活最有顛覆性的事件,其將產生一系列極其深刻嚴峻的哲學、倫理學問題。
可以說,盡快全面深入地開展對“人工智能時代”倫理學的研究,已是時代對哲學最大的挑戰(zhàn)和呼喚,已經具有了極大的緊迫性和重要性。這種呼喚使我按捺不住內心的希望,一定要寫一些東西來回應這種挑戰(zhàn)。我覺得如果我不能夠堅決有效地擊潰這些挑戰(zhàn),我的哲學理論就的確只是笑話了。
在世界圍棋第一人柯潔發(fā)誓要為打敗阿法狗而拼命的時候,我在這里計劃在哲學上和“人工智能”進行一場不留情面的“戰(zhàn)爭”,并決心一定要從本質上擊潰“人工智能”。我以為“人工智能時代”的倫理學將主要回答以下關鍵問題:
1從哲學上說,人類和“人工智能”的相互關系和地位是什么?
我對這個深刻的問題做出以下三方面的回答:
1)人工智能是人類創(chuàng)造的,是人類文明積累而獲得的輝煌成果。所以在哲學上,“人類是人工智能的創(chuàng)造者”這個結論是毋庸置疑的。同樣,相信人類應該永遠是人工智能的主人。
2)人工智能的主要能力是邏輯思維能力和記憶能力,而這些能力絕對不是人類精神的全部。人類精神中除了邏輯思維和記憶能力,還有情感、意志、想象力、創(chuàng)造力等。我們可以相信,這些精神能力的重要性是絕對不亞于邏輯思維能力和記憶力的。而人類對這些精神能力的本質和機制了解極少,所以在相當長的一段時間內人工智能是不可能真正模擬這些人類精神的。
所以說,即使人工智能在邏輯思維和記憶能力方面超過了人類,我們也絕對不能武斷做出“人工智能已超過了人類”這個結論的。
3)“人工智能”可以獲得人類一樣的地位和“人權”么?當然不可以。從本質上說,“人工智能”就是更加精致高端的計算機。我們當然應該愛護計算機,但在倫理學上我們又有什么理由給予一個計算機“人權”呢?
2從倫理學角度,如何看待人工智能將很快地取代人類的工作?
可以預見的人工智能對人類最可怕的威脅是:很多領域的大量工作會被由人工智能完成,而這將對人類的生存空間造成極其危險的擠壓。如何面對和處理失業(yè)人群將快速增加這一問題,將會決定人類社會的生死存亡。
一個關鍵的倫理學問題是:放任人工智能取代人類的工作是否符合倫理?可以明確,只要社會不具有足夠能力創(chuàng)造足夠的新工作提供給由于人工智能而失業(yè)的人們、而社會也不擁有足夠的財富贍養(yǎng)由于人工智能而失業(yè)的人們,人類社會將難以存活下去。
人類文明的發(fā)展和人類的幸福是人類倫理學的基礎。而這一倫理在“人工智能時代”需要改變么?在“人工智能時代”,人類文明的發(fā)展和人類的幸福仍然是人類倫理學的基礎、是判定是否道德的核心基礎。
人工智能是人類創(chuàng)造的產物,它應該永遠是人類文明發(fā)展和人類幸福的工具,沒有任何理由讓一個工具去損傷甚至毀滅目的本身。如果人類未來不得不執(zhí)行“火星逃亡計劃”的話,就說明人類愚蠢到了應該失去一切的程度了。
為了克服這個很可能發(fā)展的危機,未來社會需要通過組合以下三個戰(zhàn)略開始行動:1)創(chuàng)造足夠的新工作提供給由于人工智能而失業(yè)的人們;2)通過高科技的發(fā)展,使社會擁有足夠的財富贍養(yǎng)由于人工智能而失業(yè)的人們;3)全球協(xié)同性地控制人工智能對人類工作的取代??梢灶A計,這三個戰(zhàn)略的完成都是極其困難的,而這又是人類社會在未來幾十年內必須完成的任務。
3如何對待人工智能對于人類在安全上的威脅?
無論如何,只要防止人工智能接觸核武器,人工智能對人類在安全上的威脅只是小范圍的、要比核武器小很多。但“超人工智能”對人身安全的威脅是真實存在的。所以,在設計具有“超人工智能”的機器人時必須將安全性放在首要的位置。人類當然也要發(fā)展各種制服機器人的方法。在機器人不具有真正“人權”的時候,我們不認為制服機器人是一個太困難的問題。
可以預計,以后的公安局、警察局會有“人工智能犯罪”的專業(yè)分隊,也會有不少涉及人工智能的法律訴訟,而法學院會有“人工智能犯罪法”這一專業(yè)方向。
4人工智能會使人更懶惰、更迷醉于高科技的迷幻效應、更和現實生活脫離么?
一定會有很多人由于“人工智能”而更懶惰、更迷醉于高科技的迷幻效應、更和現實生活脫離。對于人類文明,這是悲劇、這是人類的一種沉淪。人類社會為了持續(xù)發(fā)展,必須建立起這樣的文化和環(huán)境,使人們了解到高科技永遠只是人類文明和幸福的手段,要防止高科技成為麻醉和壟斷人類生活的麻醉劑和魔鬼。
-
人工智能
+關注
關注
1791文章
46698瀏覽量
237182
原文標題:“人工智能時代”的倫理學研究
文章出處:【微信號:drc_iite,微信公眾號:全球技術地圖】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論