當前位置:
首頁 > 知識 > 《超級智能》作者談人工智慧:人類就像是玩炸彈的小孩

《超級智能》作者談人工智慧:人類就像是玩炸彈的小孩

最近,牛津大學人類未來研究所教授、哲學家 Nick Bostrom 成了科技界熟知的人物。他撰寫的書籍《超級智能:路線圖、危險性與應對策略》在 2015 年成為《紐約時報》暢銷書,而且還得到比爾·蓋茨 和伊隆·馬斯克的推薦。在書中,他指出,人類面臨的最大生存威脅不是氣候變化、傳染病或者核武器,而是超越人類的機器智能即將出現。最近,Nick Bostrom 接受衛報採訪,談到自己對人工智慧的一些看法。

《超級智能》作者談人工智慧:人類就像是玩炸彈的小孩


(圖片來自exponentialtrends)


《超級智能》這本書的開頭是一則寓言。一群麻雀正在建巢,這時候,一隻麻雀弱弱地說,「我們太小,太軟弱了。如果有一隻貓頭鷹幫我們建巢,生活會多麼輕鬆啊!」 這個想法得到了所有麻雀的贊同。它們開始尋找改變自身生存狀況的救世主。


一隻獨眼老麻雀發出了不同的聲音。「這肯定會導致我們的毀滅啊。在貓頭鷹來到我們中間之前,難道我們不該先學習馴養貓頭鷹的技術嗎?」 但是,他的警告無人在意。馴養貓頭鷹太複雜了,為什麼不先找來貓頭鷹,然後再考慮以後的事情呢?


這則寓言是對人類追求人工智慧的一種警告。在書中,Bostrom 提到,當智力超越人類的機器開始自己設計機器後,人類就會面對「智力大爆炸」。「在智力大爆炸之前,人類就像是玩炸彈的小孩,」 他寫到,「我們根本不知道爆炸何時發生,但是,如果我們把炸彈放到耳邊,就能夠聽到微弱的滴答聲。」

《超級智能》作者談人工智慧:人類就像是玩炸彈的小孩



(圖片來自衛報)


Bostrom 認為,如果我們創造出強於自身的機器智能,並且給予其成長的自由,那麼,它肯定會設法維護自己的主導地位。這與生物界的情況是一樣的。因此,人工智慧系統可能會派出大量的小型機器人,消滅干擾其運行或者無關緊要的人類;或者,它可能「挾持政治進程、暗地操控金融市場,改變信息流動方向,或者黑掉人類製造的武器系統。」


這聽起來就像是科幻小說。不過,Bostrom 說自己並非預言家,相反,他對這些事情「非常無知和困惑」,但是,經過多年的研究,他得到了一些「不完整的先見」,有了一些更深層的理解。

在 Bostrom 看來,超級智能與人類和諧共處不僅是政治、哲學問題,而且更是一個技術問題。「目前,機器仍然無法理解許多東西,因為它們還不夠聰明。但是,一旦它們足夠聰明,理解人類的痛苦和死亡並不是特別難的事情」。這或許會讓它們學會尊重人類的價值。雖然不知道如何去做,但是,Bostrom 認為「道德理論」必須強制編入機器人程序中。

《超級智能》作者談人工智慧:人類就像是玩炸彈的小孩



(圖片來自衛報)


如今,人工智慧正進入創造性領域。它們可以編寫音樂、作畫,甚至寫作。對此,Bostrom 說,藝術雖然能夠被複制,但是,「藝術活動本身就有價值」。因此,在超級智能興起後,真實的人類創作會變得越來越重要。

「當機器在一切事情上都超過我們,我們仍然會繼續做自己喜歡的事情。當人們打高爾夫球的時候,不是出於讓球高效入洞的需求,而是因為他們享受這項運動。當機器能夠替代人類的一切活動,我們會把更多注意力放到活動本身,追求它們的內在價值。」


題圖來自衛報


請您繼續閱讀更多來自 推酷 的精彩文章:

設計師要不要學編程
百虐成神,一位UI設計師的打怪升級之路
今年最大科技業IPO將誕生!日本聊天應用Line7月中旬日美兩地上市
理解用戶的更高一層境界是什麼?
25個超贊的電商產品詳情模塊設計
您可能感興趣

我,機器人,人類的未來:漫談人工智慧科幻電影
霍金:人工智慧一旦失控?人類將成為機器人的玩偶
霍金:人工智慧可能通過核戰爭摧毀人類
人工智慧若超越人類,會發生什麼?
人工智慧會滅絕人類?連性愛機器人都問世了
你以為人工智慧真能超越人類?大錯特錯!
人工智慧和人類的未來
未來屬於人類還是人工智慧?
IBM人工智慧專家:別誇張,人工智慧不會毀滅人類
人工智慧若超越人類會發生什麼?
人工智慧機器人的數量 未來可能超越人類
未來人工智慧機器人真能威脅到人類么?
人工智慧以及機器人會淘汰人類嗎?
霍金稱:對人類威脅最大的不是人工智慧是自己
人工智慧會比人類更聰明嗎
人工智慧對人類的威脅只是程序BUG?
傲嬌喵星人的人類弟弟,鏟屎官就要從小培養!
當人工智慧超越人類,我們怎麼辦?
人工智慧之食肉機器人會攻擊人類嗎