當前位置:
首頁 > 科技 > 為什麼人工智慧必將威脅我們的文明?

為什麼人工智慧必將威脅我們的文明?

摘要從根本上來說,人工智慧像我們現在所希望、所想像的那樣無所不能,聽話,不學壞,這樣的人工智慧將最終消除我們人類生存的意義。


對於人工智慧,我們必須認識到,它跟以往我們討論的所有科學技術都不一樣。現在人類玩的最危險的兩把火,一把是生物技術,一把就是人工智慧——生物技術帶來很多倫理問題,但是那把火的危險性還沒有人工智慧大,人工智慧這把火現在最危險。最近一些商業公司,通過「人機大戰」之類的商業炒作,一方面加劇了這種危險,但另一方面也激發了公眾對人工智慧前景的新一輪關注,這倒未嘗沒有好處。


我們可以把人工智慧的威脅分成三個層次來看:近期的、中期的、遠期的——也就是終極威脅。


為什麼人工智慧必將威脅我們的文明?


電動汽車特斯拉的生產流水線已經大量使用機械手臂




近期威脅:大批失業、軍事化


人工智慧的近期威脅,有些現在已經出現在我們面前了。近期威脅基本上有兩條:


第一條,它正在讓很多藍領工人和下層白領失去工作崗位。現在較低層次的人工智慧已經在很多工廠里被大量採用。有些人士安慰人們說,以前各種各樣新的技術被發明時,也曾經讓一些工人失去崗位,後來他們不都找到新的崗位了嗎?但是我認為人工智慧不一樣。媒體曾放過這樣的消息,包括人工智慧的從業者自己也都在歡欣鼓舞地展望,說人類現在絕大部分的工作崗位,人工智慧都是可以替代的。果真如此,顯然這個社會將會變成絕大部分人都沒有工作的狀態。對於這樣的社會,人類目前沒有準備好。今天如果有少數人沒有工作,多數人有工作,多數人養著少數人問題不大,這樣的社會是我們現有的社會制度和倫理道德結構能夠承受的。但是如果顛倒過來,這個社會中有相當大的比例——且不說超過50%,按照那些對人工智慧的展望,將來90%以上的工作崗位都會被人工智慧取代。比如說人們想聽一場報告,找個人工智慧來做就可以了,說不定比現在的聽起來還要來勁。


當這個社會大部分人都沒有工作的時候,社會會變得非常不穩定。那麼多沒有工作的人,他們可以用無限的時間來積累不滿,醞釀革命,於是就會危及社會穩定。無論東方還是西方,無論什麼意識形態的社會制度,在這個形勢面前都將黯然失色。所以說人類還沒有準備好。


順便再展望一下,既然90%以上的工作崗位都可以由人工智慧來取代,那麼「革命戰士」這種工作崗位能不能由人工智慧來取代?革命能不能由人工智慧來發起和進行?當然也可能。但是想想看,這樣的革命會帶來什麼呢?很簡單,那就是科幻影片《黑客帝國》和《未來戰士》中的世界——人類被人工智慧征服、統治、壓迫。


這是人工智慧近期的第一個威脅,現在在很多工廠已經出現了。對工廠來說,這個級別的人工智慧是很容易實現的。那些工廠的管理者說,我們換一個機器人上來,它的成本只不過是三個工人一年的工資,但是它們管理起來太容易了。管理工人很難,你讓他加班他不願意,加得多了他可能跳樓自殺或上街遊行,而機器人你讓它24小時一直干著都沒有問題,管理成本又節省下來——管理成本往往是無形的,不那麼容易計算。換用機器人很容易就可以收回成本,也許一年就收回來了。所以他們樂意用機器人取代工人。一些地方政府還通過政策鼓勵當地的工廠用機器人來替代工人,換個角度想想,城市這樣發展下去,不需要幾年,幾百萬工人失去工作,到那個時候後悔就來不及了。

人工智慧第二個近期的威脅,是由加入軍隊的人工智慧帶來的。但現在以美國為首的某些發達國家,最起勁的事情就是研發軍事用途的人工智慧。研發軍事用途的人工智慧本質上和研發原子彈是一樣的,就是一種更有效的殺人手段。為什麼埃隆·馬斯克等人也號召要制止研發軍事用途的人工智慧,道理很明顯:研發軍事用途的人工智慧,就是研發更先進的殺人武器,當然不是人類之福。


今天我們只能、而且必須抱著和當年搞「兩彈一星」類似的心態,來進行軍事用途的人工智慧研發。軍用人工智慧就是今天的「兩彈一星」。


比較理想的局面,是各大國坐下來談判,簽署限制或禁止人工智慧的國際協議。目前國際上已出現一些這樣的倡議,但僅來自某些學者或學術機構,尚未形成國家層面的行動或動議。



中期威脅:人工智慧的反叛和失控



我們再來看人工智慧中期的威脅——人工智慧的失控。這種威脅媒體早有報道,但有一些人工智慧的專家出來安慰大家,他們認為人工智慧現在還很初級,即使戰勝了李世石,不過是下個棋,即使它會作詩、寫小說,它還是很低級的,所以不用擔心。這種安慰非常荒謬。

我們都知道「養虎遺患」的成語,如果那些養老虎的人跟我們說,老虎還很小,你先讓我們養著再說,我們能同意這樣的論證嗎?你讓我們同意養老虎,就得證明老虎不會吃人,或者證明你養的不是老虎。要是老虎養大了,它要吃人了,就來不及了。


這個成語非常適合用來警惕人工智慧的失控。各種各樣的科幻作品都有提及失控的後果,比如影片《黑客帝國》中,人工智慧建立了對人類社會的統治,我們人類就完蛋了。我們為什麼要研發出一個統治我們自己的超級物種?


當然,還有一部分專家說,想讓我們提供關於人工智慧這個「老虎」不吃人的證據,我們有啊,我們有辦法讓我們的人工智慧不吃人,不反叛,變成不吃人的老虎——我們只需要給人工智慧設定道德戒律。


圍繞在人工智慧中設定怎樣的道德戒律,用怎樣的技術去設定,專家們確實已經想過各種各樣的方案了。但是這些方案可行嗎?任何一個具體方案,如果仔細琢磨,就會發現都是有問題的。我們先不考慮具體的方案,我們只要考慮一個總體的情形,就足以讓我們警惕。簡單地說,如果通過為人工智慧設置一些道德戒律,就指望它不會學壞,那麼請想一想,我們人類到現在為止,能夠做到讓每一個後代都學好嗎?答案是做不到。我們總是有一部分學壞的後代。對這些學壞的後代,難道家長和老師沒有向他們反覆灌輸各種道德戒律嗎?況且社會還有各種各樣的法律制約,但仍然還有一部分人不可避免地學壞。從這個情形來推想,人工智慧就算是你的一個孩子,你能確保他不學壞嗎?

更危險的事情是,人工智慧會比人類更聰明。現在人類有一部分後代學壞,還沒有顛覆我們的社會,那是因為他們畢竟沒有變成超人,總體跟我們是一樣的。一小部分人學壞,大部分人還是可以制約他們。要是那個學壞的人是超人,他掌握了超級智能後依然學壞,人們將沒辦法控制它。然而現在人工智慧研發追求的是什麼境界——不弄出「超人」來,科學家肯罷手嗎?


所以,那些盲目樂觀,說我們能讓人工智慧不學壞的人,請先解決怎麼確保我們人類自己的後代不學壞吧。如果人類不能在總體上杜絕我們後代的學壞,那對人工智慧不學壞的信心從何而來?


在考慮人工智慧的中期威脅時,還必須考慮人工智慧與互聯網結合的可怕前景。主要表現為兩點:


1、互聯網可以讓個體人工智慧徹底超越智能的物理極限(比如存儲和計算能力)。


2、與互聯網結合後,具有學習能力的人工智慧,完全有可能以難以想像的速度,瞬間從弱人工智慧自我進化到強人工智慧乃至超級人工智慧,人類將措手不及而完全失控。


另外,鼓吹人工智慧的人在安慰公眾時,還有一個非常初級甚至可以說是相當低幼的說法:「我們可以拔掉電源」。專業人士在試圖打消公眾對人工智慧的憂慮時,也經常提到這一說法。但實際上他們完全知道,如今人工智慧已經與互聯網密切結合——事實上,這一點正是許多大企業極力追求的,借用如今高度發達的定製、物流、快遞等社會服務,人工智慧幾乎已經可以擺脫對所有物理伺服機構的依賴。而當人工智慧表現為一個網上幽靈時,沒有機體和形態,將沒有任何「電源」可拔。


人工智慧和互聯網結合以後,危險成萬倍增長。以前對於個體的人工智慧,它智能的增長還會受到物理極限的約束,但一旦和互聯網結合,這個物理極限的約束就徹底消失了。所以人工智慧可以在極快的時間裡自我進化。


去年一篇很長的文章在很多圈子裡瘋傳,那篇文章稍微有點危言聳聽,但結論我同意。作者想論證這樣一種前景,就是說人工智慧一旦越過了某個坎之後,自我進化的速度是極快的,快到不是以年月來計算,而可能是以分鐘甚至是秒來計算。一瞬間它就可以變成超人。一旦變成超人,當然就失控了。因此說老虎還小的人,不要以為老虎跟現在一樣一年長大一點,如果這個老虎一分鐘長大一倍,這樣的老虎還了得?雖然現在很小,過五分鐘就能吃人了。


當然,對於這種事情,我本質上是樂觀主義者,雖然我看到了這樣危險的前景,我也還是得樂觀地生活。只能如此,不能因為覺得末日可能要來臨了,就不過好自己的每一天。


另外,對人工智慧專家,我想說:你們要知道,在我所預言的危險前景中,你們是最危險的,因為你們就在老虎旁邊,老虎最先要吃的,很可能就是你們這些人,所以要特別警惕。



遠期威脅:將最終消解人類生存的根本意義



從中期看,人工智慧有失控和反叛的問題,但是人工智慧的威脅還有更遠期的,從最終極的意義來看,人工智慧是極度致命的。


阿西莫夫提出了「機器人三定律」,現在在研究機器人的行業里,有的人表示三定律還有意義,但是也有一些專家對這個三定律不屑一顧,如果對三個定律仔細推敲的話,我相信一些人工智慧專家肯定會同意下面的說法:這三定律絕對排除了任何對軍事用途機器人的研發。因為只要讓人工智慧去執行對人類個體的傷害,哪怕是去處死死刑犯人,就明顯違背了三定律中的第一定律。但是搞軍事用途人工智慧的人會說,這三定律算什麼,那是科幻小說家的胡思亂想,我們哪能拿它當真呢。



為什麼人工智慧必將威脅我們的文明?


阿西莫夫在短篇小說《轉圈圈》中首次明確提出「機器人三定律」,這篇小說後來收錄在《我,機器人》小說集。



很多人不知道的是,這個阿西莫夫還有另一個觀點——所有依賴於人工智慧的文明都是要滅亡的。


阿西莫夫有一部史詩科幻小說《基地》系列,共11卷,其中對人工智慧有一個明確的觀點。對於人工智慧的終極威脅,他已經不是擔憂人工智慧學壞或失控,他假定人工智慧沒學壞,沒失控,但是這樣的人工智慧是會毀滅人類的,因為這樣的人工智慧將會消解我們人類生存的意義。


試想所有的事情都由人工智慧替人類幹了,人類活著幹嘛?人們很快就會變成一個個寄生蟲,人類這個群體就會在智能和體能上急劇衰退,像蟲子一樣在一個舒適的環境里活著,也許就自願進入《黑客帝國》描繪的狀態中去了:你就是要感覺快活,這個時候乖乖聽話的人工智慧完全可以為你服務:我把主人放在槽里養著,給他輸入虛假的快活信號,他就快活了,這不就好了嗎?


從根本上來說,人工智慧像我們現在所希望、所想像的那樣無所不能,聽話,不學壞,這樣的人工智慧將最終消除我們人類生存的意義。每一個個體都變得沒有生活意義的時候,整個群體就是註定要滅亡的。


所以,無論從近期、中期、遠期看,人工智慧都是極度危險的。無論它們反叛還是乖順,對人類也都是有害的。因此我完全贊成應該由各大國談判訂立國際條約來嚴格約束人工智慧的研發。這個條款應該比美俄之間用來約束核軍備的條款還要更嚴格,否則是非常危險的。



科學已經告別純真年代



以前曾經有過科學的純真年代,那個時候也許可以認為科學是「自然而然」產生的,但是今天科學早就告別了純真年代,今天科學是跟資本密切結合在一起的。所有的這些活動,包括研發人工智慧,背後都有巨大商業利益的驅動。


談到科學和資本結合在一起,我總要提醒大家重溫馬克思的名言:資本來到世間,每個毛孔都滴著濃血和骯髒的東西。對於和資本密切結合在一起的科學,我們的看法就應該和以前不同了。


我們以前一直有一個說法:科學沒有禁區。這個說法是很多人都習慣的,但是現在對於這個說法,科學界的很多人已經開始有新的認識。比如說曾任北大校長的許智宏院士,前不久就對媒體表示:我們以前一直說科學沒有禁區,但現在看來,科學研究仍然有著不可逾越的紅線。他是在說生物技術的某些應用時說的,「不可逾越的紅線」當然就是禁區了。


如果表述得稍微完備一點,我們可以說,在每一個特定的時期里,科學都應該有它的禁區,這個禁區可以在不同的時期有所改變。比如說某項技術,當人類社會已經準備好了,我們已經有成熟的倫理或者比較完備的法律來規範它的時候,我們也許可以開放這個禁區,說這個事情現在可以做了。但是沒準備好的事情,現在把它設為禁區是應該的,這個禁區也應包括科學技術的高低維度,高到一定程度就有可能變成禁區,不應該再繼續追求了。


發展科學,在今天,其實各國都是被綁架的。已經領先的怕被別人超越,當然不能停下來;尚未領先的,當然更要追趕。結果誰也不肯停下來或慢下來,誰都不敢停下來或慢下來,因為害怕「落後了就要挨打」。所以只有各大國坐下來談判,設立條約,不然毫無辦法。在這種局面中,只要有一個人開始做不好的事情,比如研發原子彈或軍事用途的人工智慧,其他人就會被迫跟進,結果大家都會被綁架。(文/江曉原)


轉自「文匯學人」微信公眾號(wenhui_xr),騰訊文化合作媒體,未經授權,請勿轉載。


請您繼續閱讀更多來自 文匯學人 的精彩文章:

周叔弢、周一良的藏書、讀書與著書
中國歷史上的族群和國家觀念
如何認識古代動物與人同行的歷史
日本私攝影的起源

TAG:文匯學人 |

您可能感興趣

什麼是智慧?
人工智慧專家,他們都愛看什麼科幻作品?
為什麼聰明人也會做傻事?
明知喬峰是契丹人,他為什麼還把幫主的位子傳給喬峰
人工智慧若超越人類,會發生什麼?
為什麼中國人崇拜智慧,西方人崇尚勇敢?
為什麼威廉王子和凱特王妃明明相愛卻從來不牽手?
什麼是養生?智慧來自哪裡?
人工智慧若超越人類會發生什麼?
你認為什麼才叫「對的人」?
為什麼明朝皇帝也不能隨便廷杖大臣?
卷福為什麼讓人覺得很聰明?
運動心理學:為什麼慢跑能讓你更聰明?
蔣介石和李宗仁為什麼都說他的犧牲重於泰山,他是誰?為什麼?
白領亞健康:明明睡夠了,為什麼還是犯困?
為什麼你如此聰明卻還是混得一般?優秀精英必看
復旦哲學教授郁喆雋:總擔心人工智慧,人類到底懼怕什麼
為什麼會有宇宙?宇宙之外還有別的宇宙?
什麼時候起關羽被道教供奉?為什麼清朝對關羽崇拜最厲害?
美國經濟顧問委員會主席:為什麼需要更多人工智慧?