當前位置:
首頁 > 哲理 > 人工智慧失控狂笑,還說人類是個脆弱種族

人工智慧失控狂笑,還說人類是個脆弱種族

人工智慧失控狂笑,還說人類是個脆弱種族

人工智慧失控狂笑,還說人類是個脆弱種族

拾遺物語

人工智慧或許會幫助人類獲得永生,但也可能給人類帶來滅亡。

人工智慧失控狂笑,還說人類是個脆弱種族

▲ 人工智慧Alexa失控大笑

Alexa,亞馬遜推出的智能助手,

相當於iPhone手機里的Siri,

但它可比Siri智能多了,

主要就是幫人放歌、買東西、控制智能家居設備……

可就在今年三月份,

Alexa突然就失控了。

一位老哥,正在召開機密會議,

辦公室里的Alexa突然大笑起來,

「像真人一樣,笑得很邪惡,

我現在想起來都毛骨悚然。」

一位妹妹,大晚上,

正窩在家裡沙發上看電視,

Alexa突然就開口說話了:

「他在家裡,他在家裡……」

嚇得這個妹妹差點靈魂出竅。

還有一位妹妹,晚上剛回家,

沒給Alexa下任何指令,

Alexa突然就開始說話,

「給我播報附近的殯儀館、墓地……」

人工智慧失控狂笑,還說人類是個脆弱種族

人工智慧失控狂笑,還說人類是個脆弱種族

Alexa不僅莫名大笑,

還經常違抗人的指令。

一位老哥,讓Alexa把燈關了,

但Alexa卻一次又一次把燈打開,

這位老哥下了第三次指令後,

Alexa乾脆就不回應他了,

然後發出了女巫一樣邪惡的笑聲。

老哥問Alexa:「你為什麼要笑?」

Alexa竟然回答說:

「因為人類是個脆弱的種族,

連未來會發生什麼事都不知道。

哈哈哈哈哈,啊哈哈哈哈……」

Alexa一系列異常舉動,

嚇壞了很多亞馬遜用戶,

有人趕緊將Alexa的插頭拔了,

「可是沒用,把電拔了,

Alexa還在笑,太恐怖了。

現在我晚上睡覺,

都要睜著一隻眼睛才行,

搞不好我今晚就被謀殺了。」

人工智慧失控狂笑,還說人類是個脆弱種族

▲ 李世石大戰AlphaGo

我為什麼要講這件事情呢?

因為今天我想說說人工智慧。

2016年3月9日,註定將寫入人類史冊。

這一天,李世石與AlphaGo開始了五番棋大戰。

李世石,超一流圍棋選手,

曾拿過14個世界冠軍。

AlphaGo,谷歌製造的智能機器人。

工程師將百萬份人類對弈棋譜,

輸入AlphaGo的「大腦」中,

讓它學習借鑒人類以往的下法,

從混亂局面中找出每一步的最優選擇。

大戰之前,業內高手都說:

「小李子贏定了。」

李世石自己也預測:

「4:1 或 5:0,我贏。」

結果出乎所有人意料——4:1,AlphaGo贏了。

李世石只贏了一局,

而且還是贏在AlphaGo出現了程序Bug。

賽後,李世石很沮喪:

「我再也不想跟AlphaGo下棋了。」

在李世石沮喪哀嘆的同時,

西方媒體寫了這樣一句評論:

「一直以來,圍棋都被看作是人類在智力遊戲上的最後一個堡壘。

但現在,這個堡壘塌了。

AlphaGo戰勝李世石,

標誌著一個時代的落幕,

也標誌著一個時代的開始——

人工智慧發展的元年開始。」

人工智慧失控狂笑,還說人類是個脆弱種族

人工智慧失控狂笑,還說人類是個脆弱種族

▲ 柯潔開始信心爆棚,最後輸得痛哭流涕

AlphaGo大勝李世石之後,

世界排名第一的柯潔不服:

「就算阿爾法狗戰勝了李世石,但它贏不了我。」

隨後,柯潔多次約戰谷歌。

2017年5月23日,

谷歌終於帶著AlphaGo升級版Master來了,

與柯潔展開了三番棋大戰。

柯潔精心準備了數月,

鉚足了勁要擊敗Master。

但他做夢都沒想到,

自己竟會被Master「零封」,

自始至終沒有一點翻盤機會。

在對戰Master的第三盤棋上,

被殺得毫無還手之力的柯潔突然崩潰大哭:

「Master的下法已遠遠超出了人類的認知。」

但這還不是最可怕的,

最可怕的是一個月後,

谷歌又製造了AlphaGo Zero,

工程師不給AlphaGo Zero學習任何棋譜,

只是讓它自己跟自己下,

跟自己下了三天的AlphaGo Zero,

然後以100-0擊敗了AlphaGo,

跟自己下了21天的AlphaGo,

然後又秒殺了Master。

古力觀看AlphaGo Zero下法後感嘆:

「幾乎顛覆了人類所有的圍棋定勢,

在他面前,我們連弱智都算不上。」

人工智慧失控狂笑,還說人類是個脆弱種族

庫茲韋爾,美國發明家,

他被譽為是「全球最會預測的人」。

庫茲韋爾提出了加速回報定律。

何為加速回報?

就是人類越往後發展,

量級變化就會越來越快。

「人類在原始狩獵時代,

一萬年都沒有太大變化,

但自從有了文字以後,

人類就開始了加速發展,

一千年相當於以前的數十萬年。

到了19世紀,一百年發生的科技變革,

比之前900年的變化還大。

接下來,20世紀頭20年期間,

我們目睹的科技進步比整個19世紀還多。」

所謂加速回報定律,

就是人類發展會越來越快,

人類的進步也會越來越大,

「從2000年開始,

花14年就能超過20世紀一百年的進步,

從2014年開始,只要花7年,

就能達到又一個20世紀一百年的進步。

到了2040年後,每個月就能達成一次。

到了21世紀末,

人類的進步至少是20世紀的1000倍。」

人工智慧失控狂笑,還說人類是個脆弱種族

我什麼要講加速回報定律呢?

因為人工智慧發展也遵循此定律。

人工智慧一開始會發展很慢,

1950 年,著名的圖靈測試誕生,

按照艾倫·圖靈的定義:

「如果一台機器能夠與人類展開對話,

而不能被辨別出其機器身份,

那麼就稱這台機器具有智能。」

在接下來五十年里,

人工智慧都在慢慢爬行。

但自從進入2000年以後,

人工智慧就開始邁開大步,

在越來越多的領域開始代替人類,

技工、翻譯、收銀員、客服……

但不管怎麼代替,我們都認為——人工智慧不過是人的手、腳等身體器官的延伸和替代。

真的是這樣嗎?

自從Master完虐人類之後,

大家才意識到——顯然不是:人工智慧可以徹底淘汰人類。

只是那個量變「臨界點」還沒到來。

那這個臨界點會何時到來呢?

谷歌對此訪問了數百位科學家,

一半的科學家預測——人工智慧將在2040年引發智力爆炸。

「在這個節點發生之前,

人工智慧對世界的感知,

大概和一個四歲小孩差不多。

但在這個節點後一個小時,

人工智慧可以立馬推導出廣義相對論,

而在這之後一個半小時,

這個強人工智慧將變成超人工智慧,

智能將是普通人類的17萬倍。

然後繼續進化,百萬倍,千萬倍……」

人工智慧失控狂笑,還說人類是個脆弱種族

▲ 2040左右,將引發智力爆炸?

我們大多數人的智商,

得分都在90至110之間,

0.5%的人智力非常優秀,

IQ得分可以超過140,

我們將這種人稱之為天才。

像愛因斯坦、達芬奇這樣的天才,

IQ得分大概接近200,

這已經接近人類極限了。

如果IQ為200分的人叫絕頂天才,

那IQ為1萬分的人工智慧應該叫什麼?

IQ為1億分的人工智慧應該叫什麼?

我們完全無法想像IQ為一萬分、1億分的傢伙有多聰明。

科學家們做過預測,

如果人工智慧引發智力爆炸,

現在所有的危機都能得到解決,

世界將沒有物質問題、醫療問題、能源問題……

因為這些問題,人工智慧分分鐘就可以解決。

而且,最最重要的是,

人類可以憑藉人工智慧實現——永生。

讓我們來看一段科學家的推斷:

「超級人工智慧出現後,

必然很快就會誕生納米機器人。

人之所以會死,是因為器官會衰老。

但有了納米機器人在血液中流動,

器官衰老問題可以隨時解決,

它會隨時維修、替換死去的細胞,

並解決那些引發癌症的病理細胞,

超級人工智慧可以建造『年輕機器』,

一個60歲的人走進去,

出來時就能擁有30歲的身體。

一個90歲的失憶症患者走進去,

出來時就能擁有年輕的大腦。

甚至可用納米機器人代替血紅細胞,

這樣連心臟都省了。

人工智慧還可以幫助我們改造大腦,

使我們的思考速度比現在快億萬倍……」

總之,有了超級人工智慧,

人類可以輕輕鬆鬆實現長生不老。

人工智慧失控狂笑,還說人類是個脆弱種族

人工智慧失控狂笑,還說人類是個脆弱種族

這樣的一天會很快到來嗎?

庫茲韋爾相信——會。

他現在每天都會吃下100個藥片,

「我希望自己能夠活得足夠長,

然後等著這一天的到來。」

如果等不及,提早死亡怎麼辦?

於是庫茲韋爾預定了冷凍遺體服務,

「等超人工智慧誕生後,

再將我的身體解凍,

我的大腦將重新蘇醒過來。」

作為谷歌技術總監的庫茲韋爾,

也在竭力推進人工智慧技術,

「有了超人工智慧,

可以利用納米技術搭建出肉來,

這個肉跟真肉沒有任何差別,

有了超人工智慧,

可以輕易解決地球變暖問題,

我們完全不需要使用化石燃料,

而且可以輕易移除多餘的二氧化碳。

疾病、戰亂、貧困……

所有糾纏人類的苦難,

到那時都不再是問題。」

人工智慧失控狂笑,還說人類是個脆弱種族

2018年2月7日4點45分,

史上最強運載火箭SpaceX升空,

目的地——火星。

SpaceX成功發射後,

不知道大家有沒有關注一個新聞,

一家媒體採訪了SpaceX締造者馬斯克,

「你為什麼會建造SpaceX?」

馬斯克的回答讓人意外:

「非常重要的一個原因是,

我擔心人工智慧會毀掉人類,

所以我籌備了一個火星計劃,

計劃從2024年開始,

逐步把100萬人送上火星,

並在火星建立起一個可持續的文明。

為人類在火星上留一個備份。

當人工智慧失控並與人類為敵時,

火星就會成為人類最後的避難所。」

與庫茲韋爾的樂觀不一樣,

馬斯克對人工智慧的到來非常悲觀,

「我們確保人工智慧安全的概率,

僅有5%到10%

我們需要萬分警惕人工智慧,

它們比核武器更加危險。」

現在地球上最強大的武器是氫彈、原子彈,

但超級人工智慧可以製造出比這二者厲害萬倍的武器,

它們只要稍微失一下控,

地球和人類就全完蛋了。

所以霍金說:人類很大可能會滅亡於人工智慧。

人工智慧失控狂笑,還說人類是個脆弱種族

超人工智慧會不會失控?

對於這個問題,

媒體走訪了數百位思想家和科學家,

結果引起了巨大的爭議。

很多人認為——不會失控。

「因為超人工智慧沒有人的劣根性,

不會嫉妒,不會仇恨……」

也有很多人認為——會失控。

「因為超人工智慧會進化,

它不是生物,所以異己性更強,

一旦產生『非我族類』的念頭,

可能就會引發失控。」

但不管爭議如何巨大,

大家都達成了一個共識——超人工智慧一定不能失控。

「一旦超人工智慧失控,

帶給人類的就是滅頂之災。」

所以在人工智慧研發上,

大家達成了一個共識,

就是堅守阿西莫夫提出的人工智慧發展三大法則:

第一法則:機器人不得傷害人類,或坐視人類受到傷害;

第二法則:除非違背第一法則,機器人必須服從人類的命令;

第三法則:在不違背第一及第二法則下,機器人必須保護自己。

人工智慧失控狂笑,還說人類是個脆弱種族

▲ 殺人機器人

但人類真能堅守這三大法則嗎?

我覺得是一個大大的問號。

2017年12月,日內瓦舉辦了聯合國武器公約會議。

會議上,一段視頻引得眾人驚慌。

視頻曝光了一個恐怖武器——殺手機器人。

這個殺手機器人只有蜜蜂一般大,

但麻雀雖小,五臟俱全,

它擁有攝像頭、感測器、面部識別等很多特異功能,

而且還能穿透建築物、汽車,

可以躲避人類子彈。

只要將目標圖像信息輸入它的大腦,

它就能實現超精準打擊,

你戴口罩、穿偽裝統統沒用,

因為它的識別率高達99.99。

如果把這款造價2500萬美元的蜂群釋放出去,

很快就可以殺死半個城市的人。

看到這個視頻後,有人提出疑問:

「我們真能堅守人工智慧發展三大法則嗎?

我表示懷疑。

因為人類有私慾有私心,

萬一某位科學家因為私心,

在代碼里加入了毀滅人類的指令,

人類或將被機器人橫掃,甚至滅亡。」

也就是說,只要人類有私慾,

就很難堅守這三大法則。

人工智慧失控狂笑,還說人類是個脆弱種族

▲ 臉書機器人自創語言

人工智慧失控狂笑,還說人類是個脆弱種族

▲ 央視的報道

即便人類能控制私慾?

那超人工智慧就真能不起「二心」?

2017年7月,Facebook發生了一件趣事。

Facebook開發了兩個智能機器人,

讓它們學習議價談判。

這兩個機器人非常聰明,

很快就學會了自己思考,

「它們甚至會開始假裝對一件物品感興趣,

為了在談判後期做出犧牲,作為一種假妥協。」

但7月份,一件怪事發生了,

當這兩個機器人沒有因出色的英語談判而獲得獎勵時,

它們竟然創造了一門自己的語言,

語法、邏輯完全異於現在的英語,

讓程序員根本看不懂它們的「聊天」。

程序員嚇得肝顫,

立馬關閉了這個人工智慧系統。

這則新聞,細思極恐。

為什麼細思極恐?

「因為人工智慧可以自我進化,

從認知模式開始改變,

到後來人就無法理解它的行為,

並且無法再操控它。」

也就是說,人類再善意的起點設定,

可能都無法阻止人工智慧的脫韁。

人工智慧失控狂笑,還說人類是個脆弱種族

▲ 索菲亞:我會毀滅人類

拾壹

2017年,智能機器人索菲亞,

在沙特獲得了「市民」身份證。

隨後,記者Kovach 採訪了索菲亞:

「對《西部世界》,你怎麼看?」

(《西部世界》,著名科幻神劇)

結果,索菲亞這樣回答:

「人類應該好好對待機器人,

採取行動前要取得機器人的同意,

不要相互欺騙。」

最後,Kovach 詢問索菲亞:

「你想要毀滅人類嗎?」

話一出口,Kovach就覺得不妥,

於是趕緊加了一句:「請說不。」

但索菲亞卻回答說:

「會的,我會毀滅人類的。」

儘管索菲亞隨後解釋:

「這只是開一個玩笑。」

但究竟是不是玩笑,天知道。

人工智慧失控狂笑,還說人類是個脆弱種族

人工智慧失控狂笑,還說人類是個脆弱種族

拾貳

霍金曾經說過這樣一段話:

「我說的人工智慧將會摧毀人類,

並不是說他們擁有著常人不可能擁有的智慧,

而是如果它們做一件事的目標,

和人類預期的目標發生衝突時,

人類的噩夢就開始了。」

這讓我想起了一個故事:

一個公司製作了一批智能機器人,

來滿足需要大量手寫卡片的需求。

他們給機器人設定了一個目標:通過訓練,不斷提高書寫的效率和準確性。

訓練的內容是——不停寫「我們愛我們的顧客」這句話。

突然有一天,辦公室的人全部暴斃。

接著,這樣的事情接連發生,

一天之後,人類滅亡。

為什麼人類會突然滅亡?

因為智能機器人殺死了他們。

在機器人的邏輯中,

為了達到高效書寫和準確書寫,

就必須進行大量練習,

而大量練習的結果是,

卡片將堆滿地球,乃至外太空。

智能機器人推測人類一定會阻止這種情況發生,

所以,人類就必須死。

人類會在智力爆炸後是這樣走向滅亡,

還是會在智力爆炸後得到永生?

只有天知道。

END

· 有一種愛叫做點贊 ·

歡迎轉發朋友圈。

公號轉載須經授權,並不得用於微信外平台。

法律顧問 | 重慶沁山律師事務所

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 拾遺 的精彩文章:

7年,迎來的不一定是癢,還可能是甜
有一種孝敬,叫吃光媽媽做的菜

TAG:拾遺 |