當前位置:
首頁 > 最新 > 霍金最後著作對未來飽含憂思:人工智慧或有自己意志

霍金最後著作對未來飽含憂思:人工智慧或有自己意志


圖片來源:美國石英財經網站

圖片來源:美國石英財經網站


《重大問題簡答》封面。圖片來自網路

《重大問題簡答》封面。圖片來自網路


  來源:科技日報


  10月16日,已故著名物理學家斯蒂芬·霍金最後的著作《重大問題簡答》一書出版,涉及他對科學與社會所面臨的最大問題的思考,包括「人類是否會一直在地球上生存下去?(可能不會)」「時間旅行是否可能?(仍無法排除可能性)」等;還有對諸如地球面臨的最嚴重威脅、「超人」種群以及外太空是否存在智慧生命、如何開拓太空殖民地等問題進行的最後預測,這些預測飽含了霍金對人類未來深深的憂思。


  據美國石英財經網站15日報道,霍金在書中稱,未來人工智慧可能形成自己的意志——與我們人類相衝突的意志;一種利用基因工程超越同伴的「超人」種群將佔據主導地位,這可能毀滅人類。

  人類的進化沒有邊界


  石英財經網站16日報道,在整本書中,霍金對人類在地球上的未來持悲觀態度。政治不穩定、氣候變化以及核暴力的可能性,使人類在地球上發展的持續性變得難以為繼。


  霍金認為,地球面臨的頭號威脅是小行星碰撞,類似那種導致恐龍滅絕的碰撞。他寫道:「可是,我們(對此)無法防禦。」


  更直接的威脅是氣候變化。「海洋溫度上升將融化掉冰冠,釋放出大量二氧化碳。雙重效應可能導致我們的氣候類似於金星,氣溫達到250℃。」


  霍金認為,核聚變發電會賦予我們清潔能源,不排放污染,不引起全球變暖。

  在「我們如何塑造未來」章節中,霍金不同意人類處於「進化巔峰」這一觀念。在他看來,人類的進化和努力沒有邊界。


  他認為人類未來有兩種選擇:首先,探索其他可供人類居住的替代星球,他在不止一章中提倡太空殖民,包括殖民月球、火星或星際行星等;其次,積極利用人工智慧來改善我們的世界。


  人工智慧將形成自己的意志


  霍金還強調了規範管理人工智慧的重要性。他指出,「未來人工智慧可能形成自己的意志,與我們人類相衝突的意志」。應當制止可能出現的自動武器軍備競賽,如果發生類似於2010年股市閃電崩盤那樣的武器崩盤,後果將不堪設想。


  他在書中寫道:「對人類來說,超級智慧的人工智慧的出現不是福就是禍,二之必居其一。人工智慧的真正危險並非在於惡意,而在於能力。超級智慧的人工智慧終將極其擅長實現目標。如果這些目標與我們的目標不一致,那我們就麻煩了。」

  他主張政策制定者、科技行業和普通大眾認真研究人工智慧的道德影響。


  「超人」種群將佔據主導地位


  據英國《星期日泰晤士報》15日報道,霍金最大的擔憂是,富人不久將能夠編輯自己及其子女的DNA,提高記憶和疾病免疫力。


  石英財經網站報道,霍金認為,未來1000年的某個時刻,核戰爭或環境災難將「嚴重破壞地球」。而到那時,「我們的天才種族可能已經找到了擺脫地球束縛的方法,因此能夠戰勝災難」。不過,地球上的其他物種可能做不到。

  這些成功逃離地球的人很可能是新的「超人」,他們利用諸如CRISPR(俗稱「基因剪刀」)這樣的基因編輯技術超過其他人,科學家可利用此類基因編輯技術修復有害基因,並加入其他基因。


  霍金還表示,即使政治家設法用法律禁止這一做法,但這批人會不顧禁止基因工程的法律約束,提高自己的記憶力、疾病抵抗力和預期壽命,這將對世界其他人群構成危機。


  在《星期日泰晤士報》15日發表的文章節選中,霍金稱:「我敢肯定,本世紀之內人們將找到修改智力和天資的辦法。政治家可能會制定禁止人類基因工程的法律,但肯定有人抵擋不了改進人類特徵——比如記憶力、疾病抵抗力和壽命的誘惑。」


  他指出:「一旦出現這種超人,未能通過基因改造來提高自身的人必將遇到重大政治問題,他們無力競爭,也許會變得可有可無,甚至會絕種。不過,未來將出現一種不斷加速改進的自我設計人類,如果這種人類種族能不斷設法重新設計自己,很可能擴散開來,殖民其他行星和星球。」


  有關為何尚未發現智慧生命或是智慧生命沒有造訪地球這類問題,霍金承認有各種各樣的說法,他對此持謹慎樂觀的態度,但他首選的解釋是:人類「忽視了」外太空智慧生命的形式。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 新浪科技 的精彩文章:

《火星救援》成真?科學家提出建造火星基地完整計劃
今天的穀神星:或揭開冰質天體複雜演變歷史

TAG:新浪科技 |