霍金:人工智慧或是人類歷史上最後事件
每天與你分享 IT好書 技術乾貨 職場知識
Tips
參與文末話題討論,即有機會獲得非同步圖書一本。
2018年3月14日76歲的霍金永遠的離開了我們!出生於伽利略逝世300周年的日子,離開在愛因斯坦誕辰的日子,他們說有趣的靈魂終將相遇,今天會不會也在世界的哪個小角落裡,有一個新的小生命的誕生,在往後的日子裡,繼續向著你們的遠方前進。
霍金曾說,「在我的一生中,我見證了社會深刻的變化。其中最深刻的,同時也是對人類影響與日俱增的變化,是人工智慧的崛起。」
他說,人工智慧的崛起,要麼是人類歷史上最好的事,要麼是人類文明的終結。
霍金認同:人腦與電腦沒區別
霍金認為,生物大腦可以達到的和計算機可以達到的,沒有本質區別。AI遵循了「計算機在理論上可以模仿人類智能,然後超越」這一原則。
霍金說,近來人工智慧的發展,比如電腦在國際象棋和圍棋的比賽中戰勝人腦,都顯示出人腦和電腦並沒有本質差別。
霍金擔心:失控
一方面,霍金擔心一些人利用人工智慧做壞事,比如最大化使用智能性自主武器,它將助長戰爭和恐怖主義,加劇世界動蕩局勢。
另一方面,霍金最擔心還是人工智慧系統失控爆發的潛在風險,人工智慧一旦脫離束縛,以不斷加速的狀態重新設計自身。人類由於受到漫長的生物進化的限制,無法與之競爭,將被取代。到那時,人工智慧可能是人類文明史的終結。
霍金建議:跨學科
霍金在演講中說到,人工智慧的崛起,是好是壞目前仍不確定。霍金認為,人工智慧的發展,本身是一種存在著問題的趨勢,而這些問題必須在現在和將來得到解決。
但是霍金呼籲,人工智慧的研究與開發正在迅速推進,但所有人都應該暫停片刻,把我們的研究從提升人工智慧能力轉移到最大化人工智慧的社會效益上面。
霍金同時提出,跨學科研究是人工智慧一種可能的前進道路:從經濟、法律、哲學延伸至計算機安全、形式化方法,當然還有人工智慧本身的各個分支。
霍金生命最後幾年中
關於人工智慧的大事記
2014年的霍金:人工智慧或是人類歷史上最後事件
2014年5月,在觀看了德普主演的新片《超驗駭客》後,霍金在為《獨立》雜誌撰寫的一篇文章中明確地表達了他對這個問題的擔憂。
霍金擔憂的對象不僅僅是未來的人工智慧技術,甚至還包括現在的一些公司比如谷歌和Facebook。他說:「人工智慧的短期影響取決於由誰來控制它,而長期影響則取決於它是否能夠被控制。」
霍金承認,機器人和其他的人工智慧設備也許會給人類帶來巨大的好處。如果那些設備的設計非常成功,就能給人類帶來巨大的好處,他說那將是人類歷史上最大的事件。然而他同時也提醒說,人工智慧也有可能是人類歷史上最後的事件。
他說:「人工智慧技術發展到極致程度時,我們將面臨著人類歷史上的最好或者最壞的事情。」
霍金以前就曾試圖提醒人們注意一點,即科幻的魅力會蒙蔽我們的雙眼。它有時會掩蓋住一個重要的問題,即最終的結果有可能引發一場浩劫。
當年的6月16日晚,霍金出席了美國HBO頻道的「Last Week Tonight」節目,並與主持人約翰·奧利弗(John Oliver)展開了「深刻而有意義的對話」。
當晚,霍金非常肯定地對主持人說:「人工智慧在並不遙遠的未來可能會成為一個真正的危險。」
到了2014年12月的時候,霍金在接受英國廣播公司(BBC)的採訪時說,「製造能夠思考的機器無疑是對人類自身存在的巨大威脅。當人工智慧發展完全,就將是人類的末日。」
這讓霍金再次登上英國各大媒體頭條,激起人們對人工智慧黑暗的、反面烏托邦式的假想。
從上世紀60年代末的科幻電影《2001:太空漫遊》,一個名叫哈爾9000(HAL 9000)的智能機器人發生錯亂,在前往木星的太空船上對人類發起攻擊;《我,機器人》中,一個多才多藝的人形機器似乎有了心靈;直到《終結者》系列,未來世界由機器人統治人類,反抗機器人統治的人類領袖被未來機器人追殺。
2015年的霍金:號召禁止人工智慧武器
在這一年,霍金、特斯拉CEO埃隆·馬斯克和蘋果聯合創始人史蒂夫·沃茲尼亞克等上百位專業人士聯名上書,號召禁止人工智慧武器。
公開信稱,如果任何軍事力量推動人工智慧武器的開發,那麼全球性的軍備競賽將不可避免。人工智慧武器不像核能一樣——需要高昂的成本和難以獲得的原材料,一旦開發人工智慧很容易在各軍事力量中普及。
公開信說,人工智慧武器的禁令必須儘快頒布,以避免軍備競賽,這更甚於「控制人口數量的意義」。
2016年的霍金:人工智慧崛起中產階級或大量失業
2016年6月,霍金在接受美國知名記者拉里·金採訪時說,人工智慧應該在符合倫理道德和安全措施要求的情況下開發,因為脫離人類控制之下的機器很難被阻止住。
他認為,有益的人工智慧將出現在人類生活的各方面。「想像一下那些可以對科學家想法迅速作出評價、更早地查出癌症、並預測證券市場走勢的人工智慧!它們將影響到我們的經濟,影響到我們的決策,並在整體上影響我們的生活。」
2016年10月,霍金在在英國劍橋建立了跨學科研究所「利弗休姆智能未來中心(LCFI)」,試圖解決一些在人工智慧研究快速發展中出現的尚無定論的問題。「利弗休姆智能未來中心」致力於研究智能的未來,花費大量時間學習歷史,深入去看。LCFI的一項重要使命是要化解AI風險,破解AI難題。
在當天的演講中,霍金說:「對於人類來說,強大AI的出現可能是最美妙的事,也可能是最糟糕的事,我們真的不知道結局會怎樣。」
霍金在演講中批評了人工智慧的無節制發展,他認為,人工智慧技術的確有希望帶來巨大的福利,比如根除疾病和貧困,但是它同樣也可能帶來危險,比如強大的自主式武器,或者幫助少數人壓迫多數人。
「我們生活的每一個方面都會改變。總之,創造AI的成功可能是我們文明歷史上最大的事件。」霍金說。
這年的12月,在英國《衛報》的一篇專欄中,霍金表示:「工廠的自動化已經讓許多傳統製造業工人失業了,而人工智慧的崛起會將失業範圍擴大到社會上的中產階級。未來,留給人類的只有護理、創新和監督等少數崗位了。」
如果這一趨勢繼續下去,會有什麼後果嗎?霍金認為機器人搶走人類工作後會造成社會更大的不公,自動化將「加速擴大全球範圍內已經日益嚴重的經濟不平等,互聯網和各種平台讓一小部分人通過極少的人力獲取巨大的利潤。這是不可避免的,這是一種進步,但也會對社會造成巨大破壞並最終「撕裂」整個社會」。
此外,互聯網讓窮人也見識到了上流社會的生活方式,一旦他們與其自身情況作對比,就會讓無盡的怒氣在整個社會生根發芽。
2017年的霍金:最後的警告
2017年3月,霍金在接受英國《泰晤士報》採訪時再次發出警告,「人工智慧進一步發展便可能會通過核戰爭或生物戰爭摧毀人類。人類需要利用邏輯和理性去控制未來可能出現的威脅」。
4月,2017全球移動互聯網大會(GMIC)在北京召開,霍金為這次大會發來了一個視頻,進行了題為《讓人工智慧造福人類及其賴以生存的家園》的主題演講,在這次主題演講中,霍金再次提及了人工智慧的問題,他認為人工智慧的崛起很有可能導致人類文明最終走向終結。
在11月份舉辦的第五屆騰訊WE大會上,霍金以遠程視頻的形式亮相WE大會,並談論了對人工智慧的一些看法。
在視頻中霍金認為,人類很有可能會造出超級人工智慧,這些人工智慧程序能夠全面超越人類,並有可能完全取代人類成為一種新的生命物種。霍金表示,「我擔心人工智慧將全面取代人類。如果有人能設計出計算機病毒,那麼就會有人設計出能提升並複製自己的人工智慧。這就會帶來一種能夠超越人類的全新生命形式。」
2017年12月13日,在長城會舉辦的「天工開悟,智行未來」活動中,霍金表示,現在還不能確定,人工智慧的崛起對人類來說是好是壞,但可以確定的是,人類要竭盡全力,來保證人工智慧的發展對於人類及環境有利。這可以說是霍金在公開報道中最後一條關於人工智慧的看法了,也可以說是最後的警告。
最後,霍金對全世界的人是說,「我們站在一個美麗新世界的入口。這是一個令人興奮的、同時充滿了不確定性的世界,而你們是先行者。我祝福你們。」
人工智慧是成就人類,還是毀滅人類,等待著人類繼續書寫。
霍金留下這千年預言,在另外一個宇宙時空坐觀。
人工智慧,誠意書單
NO.1人工智慧深度學習類2018年新書


※據說,不懂編程的人未來將寸步難行!
※《數據科學家訪談錄》讀書筆記
TAG:非同步社區 |