當前位置:
首頁 > 最新 > AlphaGo又把人打敗了?用不著驚慌,真正威脅人類的是假人工程序好不好!

AlphaGo又把人打敗了?用不著驚慌,真正威脅人類的是假人工程序好不好!

人工造出的人工智慧程序AlphaGo與人類下棋,去年打敗了李世石,今年又打敗了柯潔,一時間又激起人們對人工智慧的熱情討論。這就對了,發明AlphaGo的谷歌公司要的就是這個效果。作為人工智慧界的資深吃瓜群眾,還是要表明自己的幾點看法,大傢伙看看說的對不對。

1.AlphaGo雖然贏了人類,還是沒有證明智能比人強,只是證明了計算的比人快

作為不是計算機業的一般人來說,往往混淆了人工智慧和我們大眾語境中智能的概念。

日常的智能往往是指人們很聰明、很理性的處理事務,包括用正確的方法做事情,以及做正確的事情,有理性的情感和理智的行為雙重含義。比如:我們做一份菜,不僅僅是正確的做出來,還需要色香味和情感俱全,這樣吃的人才會覺得好吃。但如果僅僅是做出一份看起來像樣子的菜,沒有人類給他賦予必要元素,這份菜一定不會好吃。

實質上,人工智慧本身是一個冷冰冰的計算機術語,雖然借了我們通常語境中的智能二字,但其實完全不同。一般來說,計算機科學家描繪的人工智慧定義包括了四個部分:1類似人一樣動作的系統:能夠完成一定任務的機器;2 類似人一樣進行思考和推理的系統:即模仿人的思維方式;3 理性思考的系統:即規範化的正確思考;4理性動作的系統:按照已知的信念準確的執行動作達到目標。

人工智慧主要有兩個長期目標:發明出類人的智能機器;研究智能的機理,研究這些智能行為能否存在於機器、人或者其他動物中。到現在為止,這兩個目標其實都遠未達成。雖然人工智慧領域的新聞性事件不斷,但人工智慧還不能稱作是一種成熟的科學。

AlphaGo戰勝人類圍棋高手,是一個大事件。很多人在擔心,人工智慧如果繼續進化,會不會最終決定人類的命運。事件影響之大,所有人都參與其中,2016年10月19日一篇新聞報道,全球著名的英國物理學家斯蒂芬.霍金說:「強大的人工智慧的興起,要麼是人類最大的幸事,要麼是最糟的噩運。我們不知道是哪一種。」已經充分表達了這種擔憂。

但事實上,AlphaGo戰勝人類的事件與200多年前蒸汽機戰勝人類的體力沒有什麼性質上的不同,只是用某一方面的能力集聚來證實了機器會局部超過人類。那又怎麼樣?要知道,這都是人類控制下的把戲。局部超過人類的事物多了去,沒有人造機器的時候,老虎、獅子、大象、毒蛇都可以輕鬆把人搞定,對不對?找到某一個角度把人打敗,其實什麼都沒有證明,人類的獨特之處在於其獨特的綜合性能力。

我們需要明白,AlphaGo其實並沒有證明機器程序有多聰明,而是證明了計算速度有多快,數據存取效率有多高。現在的人工智慧程序並不是依靠人腦一樣的邏輯推理,而是在學習了海量的圍棋高手對戰的數據,通過這些數據學習,來表現出來一種智能。同時,通過上萬台的計算伺服器來訓練程序的模型,最終實現機器智能的應對無誤。雖然AlphaGo的學習效率更高,處理具體問題更加聰明,但從原理上與人類培訓大猩猩識別香蕉並沒有本質的區別。AlphaGo做出了類似人一樣的動作,但實質上並沒有實現像人一樣思考。

看到AlphaGo的表現,我覺得人類可以更放心了,根本用不著驚慌。雖然在圍棋方面可以把人戰勝,再換個方向,它完全是一個白痴。因為你知道它無論如何做,表現出如何聰明,但實質上與人腦相距甚遠。

2.人工智慧歷史上已經有若干次高潮,這並不是第一次,也不會是最後一次

雖然若干計算機專家宣傳人工智慧這次真的高潮到來,但看看過去的歷史,也許能夠讓我們先清醒一下。

在1946年計算機出現在這個地球上的不久時間,人類就已經提出了人工智慧的概念,其本質來源於人們對計算機所帶來智能的樂觀預期,並不是真正的來源於人腦科學。

1950年,對於人工智慧來說是一個開端。英國計算機科學家阿蘭.圖靈來到曼徹斯特大學任教,同時還擔任該大學自動計算機項目的負責人。當年10月,他發表了題為《機器能思考嗎?》的論文。在這篇論文里,圖靈第一次提出「機器思維」的概念。同時他提出了一個測試假設:即一個人在不接觸對方的情況下,通過一種特殊的方式,和對方進行一系列的問答,如果在相當長時間內,他無法根據這些問題判斷對方是人還是計算機,那麼,就可以認為這個計算機具有同人相當的智力,即這台計算機是能思維的。這個測試假設就是著名的「圖靈測試」。也正是這篇文章的相關論述,圖靈被後來人稱為「人工智慧之父」。但是,圖靈只是提供了出口測試的方法,並沒有告訴大家如何實現。

在此後的60年當中,人類發明了一系列的演算法,還有若干知名不知名的論文,更是提出了大量的演算法模式:機器學習、人工神經網路、遺傳演算法、支持向量機、統計學習等。60年後才有這樣轟動,其實也正是說明了人工智慧的不成功。因為這些演算法,並沒有導致人們實際生活的改變。雖然近年來在自然語言翻譯、語音識別等領域有所進展,但我們只要試一試機器翻譯的結果,就立刻知道了,人們其實並不能接受偏差。目前看來,計算程序的局限性,無論用什麼樣的方式,其實短期內都不能達到與人腦相似的能力。據說計算機大師、計算機體系結構的冠名人諾依曼在去世前談論到:計算機是與人腦完全不同的體系結構,大腦沒有存儲器、CPU、控制器、輸入輸出這些結構,這就決定了計算機無論怎麼做都不可能實現大腦一樣的計算處理。人類現在對諾依曼結構都無法突破,要突破人腦還有待於量子計算、人腦晶元、生物計算機等新一代計算技術的突破。

在美國未來學家雷·庫茨魏爾2011年出版的《奇點臨近》一書中,宣稱說:人工智慧超過人類智能的這一奇點時刻,將在2045年左右將會發生,距離現在只有約30年時間。人們可以假設出很多情形,其中有一些是非常悲觀的,比如機器智能攻擊人類,機器智能破壞人類的倫理等等。但實質上這裡面蘊含著一個悖論,如果人類發明了能夠超越人類的機器,說明人類還不夠智慧,因為人類讓自己處於危險當中。如果人不能發明超越人類的機器,同樣說明人類不夠智慧。反過來,人類如果智慧,這些負面假設都將不會發生。《奇點臨近》這部書可以說是此輪人工智慧威脅論的開始。論證的看起來很有道理,但實質上有些牽強。核心的觀點就是,機器智能天天增長,而人的智能幾乎不變,顯然就會有一個交點,機器智能開始超過人的智能。不否認長遠時間中的這種可能性,但要在30年中到來,幾乎沒有可能。另外兩個關鍵問題在於:1.人能不能造出超出自己腦力智慧的機器?2.人是不是機器智能的主宰?如果問題1答案是肯定,那就是前述的悖論,如果問題1是否定的,那麼不證自明。如果問題2是肯定的,那麼人不會讓超越人智能的事件發生,主動禁止,如果問題2是否定的,先要回答第1個問題。

3.人工智慧能否威脅人類,還需要期待於一些基礎技術的突破

雖然AlphaGO戰勝世界圍棋冠軍,新一輪的人工智慧威脅論再度升溫。不過,如前所述,現在所說的人工智慧距離真正威脅人類還尚遠。問題的關鍵在於,目前人工智慧的發展尚處於突破基礎計算技術的瓶頸階段,與真正的威脅人類生存根本不在一個層面。

即便有一日人工智慧技術有了根本性的突破,我們也無須過分關注對人工智慧威脅的誇大其詞。相信人類的聰明,作為萬物生態鏈的頂端,絕不會把自己放到危險的境地當中。只要我們閱讀過人類起源和文明發展史,就會知道,在漫長的人類歷史中曾經遇到過那麼多在很多方面超過人類的物種,最終都臣服在人類的智慧之下。超過人類,並不一定就是威脅,而在於人類如何駕馭和掌控。

沒有惡的工具,只有惡的人。好人用刀來切菜,而壞人手握刀才是危險。不排除有一部分惡意的人,試圖用人工智慧技術做一些危險的嘗試,但相信更多的人會站出來阻止它被用來威脅人類,這也正是人類的智慧之處。與其要我們相信人工智慧未來有多危險,不如回頭來審視自己,我們自己的智慧會不會允許威脅我們的事情發生。我們應該用最樂觀的估計來預測人工智慧的未來,而不是悲觀。

就現在而言,人工智慧還處在低級水平,遠未達到威脅人類的境地。其根本原因在於目前的計算技術與人類的認知方式完全不同,除非全新的技術出現,才有可能形成真實的威脅。

期待人工智慧技術出現根本性的突破,不僅僅是下下圍棋,而是真正接近人,我們必須對以下幾種新技術寄予厚望,必須期待先打破諾依曼結構再說:

類人腦晶元:大家可以參閱一下名字叫TrueNorth晶元的資料,看看相關的進展;

量子計算:這個就不用說了,最近有突破,但還遠沒有到實用程度;

人類智能:把人腦和計算機連接起來,形成強大的「人類智能」;

生物計算機:用生物分子代替硅做計算,實現強大的生物計算機

4.真人工智慧沒那麼可怕,劣質人工智慧程序才是真正要命的

人工智慧熱潮再起,用人工智慧幫助人的難度很高,但用來做壞事的難度可能就沒有那麼高了,因為做壞事不需要那麼精準。要說人工智慧威脅,當然首先就是用人工智慧去幹壞事,比如信息安全威脅,這個危險程度增加了。當然,這種情況人類有其他措施應對,我們就不討論了。其次,真正對人類產生威脅的可能就是渾水摸魚的人工智慧程序,不具備能力,但想獲得收益,這個威脅可能更甚。甚至,其中大量的可能是完全無心的,或者是善意的出發點。

我認為,目前來說,最可怕的威脅並不是來源於運行良好的人工智慧系統,而是那些不靠譜工程師開發出來的不靠譜演算法。這些有問題的演算法對人類造成威脅的程度遠遠大於預期的成熟人工智慧的威脅。

現在,人們正在陷入對人工智慧的狂熱,大量的似似而非的人工智慧程序正在創造當中,從而加劇了威脅的發生。這樣的例子現在已經有很多,例如:

2016年,美國加州帕洛阿爾托市斯坦福購物中心保安機器人突然失控導致一名兒童受傷。據當事人說,在機器人撞倒孩子的時候,她正與他的丈夫和十六個月大的孩子一起走著,機器人將孩子壓倒在地上,但機器人卻沒有停下來,而是繼續前進,從孩子的右腳上碾了過去,導致孩子的腿部腫脹並造成了擦傷。當時,當事人曾經尖叫著並試圖推動機器人阻止其前行,但是沒有成功,她的丈夫只能將孩子拽走……

在更早2015年,新聞報道說,德國的一家汽車製造廠中一個機器人殺死了一名工作人員。當時這名21歲的工人正在安裝和調製機器人,機器人突然「出手」擊中工人的胸部,並將其碾壓在金屬板上,這名工人當場死亡。

…….

這樣的機器人傷害人類的例子很多,相信未來還會更多。但看看這些例子,我並不認為是因為人工智慧太過聰明所導致的,主要問題在於程序本身的不完備,考慮不周所導致。程序有問題,而機器人有行動能力,這才是問題的關鍵。這就提出一個問題,如何驗證和確保人工智慧程序的可靠程度,並建立強制性的限制不良程序進入應用?誰來保證每個機器人安裝的人工智慧程序是毫無問題的?而不是快速把一些不靠譜的產品推向市場。

更有可能的威脅是,惡意程序或者病毒程序侵入人工智慧系統,讓系統喪失理智,從而對人類發起威脅。如何避免這樣的情形出現?有沒有針對性預案,比如,強制性設定鎖死程序?

人工智慧的狂熱+唯利是圖才是真正可怕的,一些不具備能力的人開發人工智慧程序,一些惡意的程序入侵,這與劣質食物對人類的危害沒有區別,甚至危害更甚,這才是真正可怕的威脅。

也許人類需要再次重申阿西莫夫定律,並把它上升為一項法律的高度,才有可能減少機器人對人的傷害。阿西莫夫定律誕生於機器人發明之前,在1940年由科幻作家阿西莫夫所提出,也被稱為機器人三原則。它的內容包括:

第一條:機器人不得傷害人類;

第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾;

第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。

對於可怕的由劣質程序武裝的機器人,才是最主要的人類威脅,也許法律化的阿西莫夫定律才能禁絕這種事情發生。

以上內容來源於《智能爆發:新工業革命與新產品創造浪潮》這部書,非經許可,不得篡改作者或原文。

順便幫我寫的有關新技術革命與新工業革命的四部書做個宣傳,不管你看或者不看,它們都在京東、噹噹、亞馬遜那裡。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 智慧的維度 的精彩文章:

TAG:智慧的維度 |

您可能感興趣

窮人用不起,富人用不著?不!
再不買件Barbour塗蠟外套,以後可能真的買不著了
真正厲害的人都不著急,你呢?
一個真正優秀的人,TA從不著急,因為好的人生從不怕大器晚成
真正厲害的人,從不著急!
ICO詐騙層出不窮,有人竟說不著急監管!人傻錢多?
這些奇怪兵器真雷人:槍挺猛,就是扎不著,刀不可怕,怪叫嚇死人
沒有神跡,用不著嚇唬,人工智慧的真正突破還未到來
人,為什麼睡不著,不是不困,而是心事重重!
OSU哭泣地圖!你不可能用不著!
晚上睡不著,睡不好?是你的「心」不好了!
每個人都有睡不著的時候,不是不困,而是想的太多(說得真好)
打不著人不怪你?論電競顯示器的重要性
搞笑GIF趣圖:身高是硬傷,夠不著妹子的手這就尷尬了!
實用技能get√!睡不著?10分鐘助眠操,幫你睡個好覺
不著急的人,才真正厲害
搞笑GIF:你敢讓哥睡不好,哥就敢讓你睡不著!
燃氣灶打不著?看看是不是這裡有問題,很多人都沒注意!
好好活著:每個人都有睡不著的時候,不是不想睡,那是
搞笑GIF:你敢讓姐睡不好,姐就敢讓你睡不著!