英國已故科學家斯蒂芬·霍金的遺作《對大問題的簡明回答》于10月16日發(fā)售。在書中,霍金暗示,不久的未來,富人可以選擇編輯他們自己和孩子的DNA,讓自己和孩子變成擁有更強記憶力、抗病力、智力和更長壽命的“超人”。
霍金遺著封面
富人將有能力選擇變成“超級物種”
霍金寫道:“我敢肯定,本世紀之內,人們將找到修改智力和天資的辦法,比如攻擊性?!薄翱赡軙贫ń谷祟惢蚬こ痰姆?。但是,有人肯定抵制不了改進人類特征的誘惑,比如記憶力、疾病抵抗力和壽命。”
他還表示,這將對未修改基因的人造成嚴重后果,導致他們沒有競爭力。這位教授甚至警告說這可能導致人類走向滅絕?!八麄兛赡軙^種,或淪為可有可無?!被艚鹫劦搅似胀ㄈ恕N磥?000年的某個時刻,核戰(zhàn)爭或環(huán)境災難將“嚴重破壞地球”??墒?,到那時,“我們的天才種族將已經發(fā)現(xiàn)了擺脫地球粗暴束縛的辦法,因此能夠戰(zhàn)勝災難”。
不過,地球上的其他物種可能做不到。
書中還提到,成功逃離地球的人很可能是新的“超人”,他們利用諸如“規(guī)律成簇間隔短回文重復系統(tǒng)(CRISPR)”這樣的基因編輯技術超過其他人?;艚鹫f,他們會不顧禁止基因工程的法律約束,提高自己的記憶力、疾病抵抗力和預期壽命。
“已經沒有時間留給達爾文的進化論來提高我們的智力、改善我們的天性了?!?/p>
這位《時間簡史》作者還提到了相關基因編輯方法,比如“規(guī)律成簇間隔短回文重復系統(tǒng)(CRISPR)”,科學家可以借此修復有害基因并加入其他基因。報道稱,盡管這類方法可能促進醫(yī)學發(fā)展,但是一些批評者擔心它也可能導致優(yōu)生學式的運動,弱勢者將被社會淘汰。
人工智能:別讓人類陷入“螞蟻窘境”
報道稱,霍金對規(guī)范管理人工智能的重要性提出了嚴重警告,指出“未來人工智能可能形成自己的意志,與我們人類相沖突的意志”。
他在書中寫道,應當制止可能出現(xiàn)的自動武器軍備競賽,提出如果發(fā)生類似于2010年股市閃電崩盤那樣的武器崩盤,其后果將會如何的疑問。他接著寫道:“總之,對人類來說,超級智慧的人工智能的出現(xiàn)不是福就是禍,二者必居其一。人工智能的真正危險并非在于惡意,而在于能力。超級智慧的人工智能將極其擅長實現(xiàn)目標。如果這些目標與我們不一致,那我們就麻煩了。你可能不是出于惡意而踩死螞蟻的那種邪惡的仇恨螞蟻的人,但是如果你負責一項水力環(huán)保能源項目,而洪水淹沒地區(qū)有一個蟻丘,那么螞蟻就慘了。別讓人類陷入螞蟻的境況?!?/p>
地球面臨的最大威脅
未來,地球面臨的頭號威脅就是小行星碰撞,類似那種導致恐龍滅絕的碰撞?;艚饘懙溃骸拔覀儯▽Υ耍o法防御?!?/p>
更直接的威脅是氣候變化?!昂Q鬁囟壬仙龑⑷诨舯?,釋放出大量二氧化碳。雙重效應可能導致我們的氣候類似于金星,氣溫達到250攝氏度?!?/p>
這些年來,霍金做過的預言
除了以上幾點,霍金在世時還做過這些預言,值得深思。
“外星人”在看著你
在2015年倫敦皇家科學學會尋找外星生命跡象的啟動儀式上,霍金就說過:“在無限的茫茫宇宙中,一定存在著其它形式的生命。”
他說:“或許外星生命會正盯著我們看呢?!薄安还茏罱K地外智慧生命到底存在、還是不存在,現(xiàn)在該是有人正式投入進來。這個問題,我們必須要弄個明白?!?/p>
據(jù)介紹,目前已有相關項目,該項目將動用部分目前世界上最大的望遠鏡,更遠地深入宇宙中去捕捉任何無線電波和激光信號。
地球將變成一個“熊熊燃燒的火球”
霍金預言稱,稱人類可能在2600年前就會滅絕。霍金認為,隨著地球人口增長,能源消耗將會增加,地球將變成一個“熊熊燃燒的火球”。
霍金表示相信我們可以避免這樣的世界末日,而最好的方法就是移民到太空,探索人類在其他星球上生活的可能。就如同1492年的歐洲,探索新大陸對舊世界帶來了深遠的影響。人類向太空的拓展,甚至將會產生更深遠的影響,這將徹底改變人類的未來,甚至會決定我們是否還有未來。
千年內人類須移民外星否則“滅絕”
霍金在美國洛杉磯發(fā)表演講時稱,他認為,未來1000年內,基本可以確定的是地球會因某場大災難而毀滅,如核戰(zhàn)爭或者溫室效應。因此,他強調人類必須移居其它星球。美國航空航天局局長格里芬也表示,單獨一顆行星上的物種,是不可能永久生存下來的。
在太陽系中,火星是除地球之外可供人類居住的最佳選擇。但火星載人探測要幾十年之后才能實施,探測一次往返要450天。
霍金表示:“人類滅絕是可能發(fā)生的,但卻不是不可避免的,我是個樂觀主義者,我相信科學技術的發(fā)展和進步最終可以帶人類沖出太陽系,到達宇宙中更遙遠的地方?!?/p>
智能機器是真正人類“終結者”
如上面所說,“超級智慧的人工智能的出現(xiàn)不是福就是禍,二者必居其一?!被艚鹪啻伪硎荆皬氐组_發(fā)人工智能可能導致人類滅亡”。
按照霍金的說法,人工智能科技在初級發(fā)展階段的確為人類生活帶來便利,但是,機器將可能以不斷加快的速度重新設計自己。而人類則受制于生物進化速度,無法與其競爭,最終被超越??茖W界把這種人工智能超越人類智慧的轉折點命名為“奇點”。
事實上,美國Space X首席執(zhí)行官埃隆·馬斯克,微軟創(chuàng)始人兼慈善家比爾·蓋茨,也都警告過要注意人工智能的“危害”。麻省理工學院教授、科學家、谷歌、IBM和微軟等企業(yè)員工及與人工智能領域有關的投資者,也聯(lián)名發(fā)出公開信,表達同樣的憂慮。
這是我們星球最危險的時刻
英國《衛(wèi)報》網(wǎng)站2016年12月1日刊載霍金的文章《這是我們星球最危險的時刻》。文章指出,英國脫歐公投和特朗普當選總統(tǒng),都代表了那些自認為被領導人拋棄的民眾的怒吼。這些被遺忘的民眾拒絕了所有專家和精英的建議和指導。西方精英須以謙遜之心看待民粹,切實彌補貧富差距。
“選票背后暗藏著人們對全球化與技術加速革新所造成的經濟后果的擔憂,而這種心理完全可以理解。自動化工廠已經裁減了大批傳統(tǒng)制造業(yè)崗位,人工智能的崛起很可能使就業(yè)遭破壞的情況蔓延到中產階級,只有最需要護理能力、創(chuàng)造力或者管理能力的崗位才能保留下來。”
“我們應不應該反過來把投票結果看成是在宣泄粗魯?shù)拿翊庵髁x,認定民粹主義無法認清現(xiàn)實,并企圖規(guī)避或者限制選票所代表的選擇結果?我認為如果這樣做將是大錯特錯的?!?/p>
“世界各國領導人必須承認,他們從過去到現(xiàn)在都在辜負大眾的期望。隨著資源日益集中到少數(shù)人手中,我們必須變得比現(xiàn)在更懂得如何分享。當消失的不只是崗位,還包括整個行業(yè)時,我們必須幫助人們接受再教育,迎接新的世界,必須在他們接受再教育的過程中提供經濟支持?!?/p>
“我非??春梦覀內祟?。但這需要所有精英,從倫敦到哈佛,從劍橋到好萊塢,都吸取教訓。而且首先要學會保持一定程度的謙遜態(tài)度?!?/p>
-
人工智能
+關注
關注
1789文章
46652瀏覽量
237073 -
霍金
+關注
關注
0文章
40瀏覽量
10481
原文標題:霍金臨終擔憂曝光!富人編輯基因成為“超人”,窮人無法競爭,“階級固化”無法避免
文章出處:【微信號:WUKOOAI,微信公眾號:悟空智能科技】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論