霍金臨終擔憂曝光!富人編輯基因成為「超人」,窮人無法競爭,「階級固化」無法避免
"
英國已故科學家斯蒂芬·霍金的遺作《對大問題的簡明回答》於10月16日發售。在書中,霍金暗示,不久的未來,富人可以選擇編輯他們自己和孩子的DNA,讓自己和孩子變成擁有更強記憶力、抗病力、智力和更長壽命的「超人」。
霍金遺著封面
富人將有能力選擇變成「超級物種」
霍金寫道:「我敢肯定,本世紀之內,人們將找到修改智力和天資的辦法,比如攻擊性。」「可能會制定禁止人類基因工程的法律。但是,有人肯定抵制不了改進人類特徵的誘惑,比如記憶力、疾病抵抗力和壽命。」
他還表示,這將對未修改基因的人造成嚴重後果,導致他們沒有競爭力。這位教授甚至警告說這可能導致人類走向滅絕。「他們可能會絕種,或淪為可有可無。」霍金談到了普通人。未來1000年的某個時刻,核戰爭或環境災難將「嚴重破壞地球」。可是,到那時,「我們的天才種族將已經發現了擺脫地球粗暴束縛的辦法,因此能夠戰勝災難」。
不過,地球上的其他物種可能做不到。
書中還提到,成功逃離地球的人很可能是新的「超人」,他們利用諸如「規律成簇間隔短迴文重複系統(CRISPR)」這樣的基因編輯技術超過其他人。霍金說,他們會不顧禁止基因工程的法律約束,提高自己的記憶力、疾病抵抗力和預期壽命。
「已經沒有時間留給達爾文的進化論來提高我們的智力、改善我們的天性了。」
這位《時間簡史》作者還提到了相關基因編輯方法,比如「規律成簇間隔短迴文重複系統(CRISPR)」,科學家可以藉此修復有害基因並加入其他基因。報道稱,儘管這類方法可能促進醫學發展,但是一些批評者擔心它也可能導致優生學式的運動,弱勢者將被社會淘汰。
人工智慧:別讓人類陷入「螞蟻窘境」
報道稱,霍金對規範管理人工智慧的重要性提出了嚴重警告,指出「未來人工智慧可能形成自己的意志,與我們人類相衝突的意志」。
他在書中寫道,應當制止可能出現的自動武器軍備競賽,提出如果發生類似於2010年股市閃電崩盤那樣的武器崩盤,其後果將會如何的疑問。他接著寫道:「總之,對人類來說,超級智慧的人工智慧的出現不是福就是禍,二者必居其一。人工智慧的真正危險並非在於惡意,而在於能力。超級智慧的人工智慧將極其擅長實現目標。如果這些目標與我們不一致,那我們就麻煩了。你可能不是出於惡意而踩死螞蟻的那種邪惡的仇恨螞蟻的人,但是如果你負責一項水力環保能源項目,而洪水淹沒地區有一個蟻丘,那麼螞蟻就慘了。別讓人類陷入螞蟻的境況。」
地球面臨的最大威脅
未來,地球面臨的頭號威脅就是小行星碰撞,類似那種導致恐龍滅絕的碰撞。霍金寫道:「我們(對此)無法防禦。」
更直接的威脅是氣候變化。「海洋溫度上升將融化掉冰冠,釋放出大量二氧化碳。雙重效應可能導致我們的氣候類似於金星,氣溫達到250攝氏度。」
這些年來,霍金做過的預言
除了以上幾點,霍金在世時還做過這些預言,值得深思。
「外星人」在看著你
在2015年倫敦皇家科學學會尋找外星生命跡象的啟動儀式上,霍金就說過:「在無限的茫茫宇宙中,一定存在著其它形式的生命。」
他說:「或許外星生命會正盯著我們看呢。」「不管最終地外智慧生命到底存在、還是不存在,現在該是有人正式投入進來。這個問題,我們必須要弄個明白。」
據介紹,目前已有相關項目,該項目將動用部分目前世界上最大的望遠鏡,更遠地深入宇宙中去捕捉任何無線電波和激光信號。
地球將變成一個「熊熊燃燒的火球」
霍金預言稱,稱人類可能在2600年前就會滅絕。霍金認為,隨著地球人口增長,能源消耗將會增加,地球將變成一個「熊熊燃燒的火球」。
霍金表示相信我們可以避免這樣的世界末日,而最好的方法就是移民到太空,探索人類在其他星球上生活的可能。就如同1492年的歐洲,探索新大陸對舊世界帶來了深遠的影響。人類向太空的拓展,甚至將會產生更深遠的影響,這將徹底改變人類的未來,甚至會決定我們是否還有未來。
千年內人類須移民外星否則「滅絕」
霍金在美國洛杉磯發表演講時稱,他認為,未來1000年內,基本可以確定的是地球會因某場大災難而毀滅,如核戰爭或者溫室效應。因此,他強調人類必須移居其它星球。美國航空航天局局長格里芬也表示,單獨一顆行星上的物種,是不可能永久生存下來的。
在太陽系中,火星是除地球之外可供人類居住的最佳選擇。但火星載人探測要幾十年之後才能實施,探測一次往返要450天。
霍金表示:「人類滅絕是可能發生的,但卻不是不可避免的,我是個樂觀主義者,我相信科學技術的發展和進步最終可以帶人類衝出太陽系,到達宇宙中更遙遠的地方。」
智能機器是真正人類「終結者」
如上面所說,「超級智慧的人工智慧的出現不是福就是禍,二者必居其一。」霍金曾多次表示,「徹底開發人工智慧可能導致人類滅亡」。
按照霍金的說法,人工智慧科技在初級發展階段的確為人類生活帶來便利,但是,機器將可能以不斷加快的速度重新設計自己。而人類則受制於生物進化速度,無法與其競爭,最終被超越。科學界把這種人工智慧超越人類智慧的轉折點命名為「奇點」。
事實上,美國Space X首席執行官埃隆·馬斯克,微軟創始人兼慈善家比爾·蓋茨,也都警告過要注意人工智慧的「危害」。麻省理工學院教授、科學家、谷歌、IBM和微軟等企業員工及與人工智慧領域有關的投資者,也聯名發出公開信,表達同樣的憂慮。
這是我們星球最危險的時刻
英國《衛報》網站2016年12月1日刊載霍金的文章《這是我們星球最危險的時刻》。文章指出,英國脫歐公投和特朗普當選總統,都代表了那些自認為被領導人拋棄的民眾的怒吼。這些被遺忘的民眾拒絕了所有專家和精英的建議和指導。西方精英須以謙遜之心看待民粹,切實彌補貧富差距。
「選票背後暗藏著人們對全球化與技術加速革新所造成的經濟後果的擔憂,而這種心理完全可以理解。自動化工廠已經裁減了大批傳統製造業崗位,人工智慧的崛起很可能使就業遭破壞的情況蔓延到中產階級,只有最需要護理能力、創造力或者管理能力的崗位才能保留下來。」
「我們應不應該反過來把投票結果看成是在宣洩粗魯的民粹主義,認定民粹主義無法認清現實,並企圖規避或者限制選票所代表的選擇結果?我認為如果這樣做將是大錯特錯的。」
「世界各國領導人必須承認,他們從過去到現在都在辜負大眾的期望。隨著資源日益集中到少數人手中,我們必須變得比現在更懂得如何分享。當消失的不只是崗位,還包括整個行業時,我們必須幫助人們接受再教育,迎接新的世界,必須在他們接受再教育的過程中提供經濟支持。」
「我非常看好我們人類。但這需要所有精英,從倫敦到哈佛,從劍橋到好萊塢,都吸取教訓。而且首先要學會保持一定程度的謙遜態度。」
粉絲可添加論壇君微信(ltj_001)進入粉絲群
(添加時請備註簡要個人信息,昵稱+學生或某公司職位)
你可能還想看:
歡迎關注公眾號:創業黑馬集中營(ID:cyhmjzy),為您提供一手創業資訊、產業案例分析、投融資趨勢…… | 編輯:Sugar
※國內首例公開在正常人體內植入晶元!未來人類或可變身「超人」……
※科學為什麼重要?馬化騰公開信引熱議,透露企業未來發展方向
TAG:世界科技創新論壇 |