當前位置:
首頁 > 心理 > 擁有超級智能後,人工智慧會變成神一般的偏執狂嗎?

擁有超級智能後,人工智慧會變成神一般的偏執狂嗎?

全文共3651字,預計學習時長11分鐘

圖源:Unsplash

以人工智慧、自動化等為代表的技術能讓你的生活更加智能與神奇。國內首個人工智慧公園(百度聯合)——海淀公園。你在裡面跑路,人工智慧幫你測量像速度,體重,身高等數據,無人駕駛汽車帶你暢遊公園,不需要你開車多爽。

此外,它們還能代替你解決很多決策問題。不能否認,人工智慧和自動化等技術正在逐步影響傳統由人類完成的許多工作。

談及人工智慧時,我們所擔憂的其實並不是機器人對人類的取代。機器人已經與人類共存有一段時間了,雖然自動化經常取代人類,但人類往往會改換新工作。

但不是每一個被機器人取代的人都會在一夜之間得到一份更好的新工作。我們會看到未來所有或(大多數)人類工作都由機器人、硬體或軟體完成。

不斷增加的痛苦可能摧毀經濟並殺死人類,但自動化本身不太可能造成這樣的影響。

自動化會強制替換,不止代替那麼簡單

圖源:Unsplash

昨晚我看了一個令人愉悅的電視節目,名為瑪麗貝莉的秘密莊園。該節目以烹飪的方式探索英國禮儀歷史,突出了我對於自動化的觀點。其中很多豪華的廚房曾由二十多人的團隊負責做飯,而如今僅有一到兩名廚師。人員需求的變化是由取代了人類的新工具導致的。攪拌這項工作曾需擁有大力水手般前臂的專人完成。我認為大部分人不會因電動攪拌機取代了人類的工作而感到不安。

對於重複性任務,無論是軟體還是硬體,機器似乎最適合取代人類。就目前而言,這是事實,即使是在人工智慧技術前沿,其中的演算法可能很快就超過人類同行。儘管人工智慧可能在從醫學圖象中推斷數據方面勝過人類,但這是對上百萬重複性任務進行處理的結果,其信息處理量遠超人類處理極限。

使用機器學習分析帶有患者結果的圖像中的模式,神經網路可以逐漸熟練地識別診斷。使用過聊天機器人的人都應知道「識別」與理解之間的區別。使用自然語言處理很常見,但是自動化的聊天機器人基本上是從一系列分支條件語句開始運行的。機器人可能不如真實的人那麼有幫助,但它們不會感到疲勞或沮喪。

機器人可持續工作,不帶感情

在我看來,聊天機器人提供了人類無法保持的一致性。反覆問同一個問題時,大多數人都會感到沮喪;而機器人沒有任何感覺,每次都會以同樣的方式回答。即使是最頑強的銷售和客戶支持人員也會感到被冒犯,或想稱某人為「浪費時間的白痴」。

我們的生物生命形式無法在對話之間按下重置鍵。我進行冥想是為避免結束充滿壓力的一天後無故斥責無辜的人。我願意承認,因為我百分百肯定,每個人在某個時候因某個人陷入艱難的一天,而這個人並不是造成這一天困難的原因。

從概念上講,從使用條件表達式的聊天機器人到超級智能,人工智慧的運行方式都一樣冷冰冰。即使人工智慧決定殺了你,它這麼做也絕非針對你。作為殺戮機器的人工智慧是微電影《殺戮機器人》的情節。

偏差編程可能意味著偏執的人工智慧

有了機器人,一切就按照程序不帶任何感情地運行。與銀行出納員不同,自動櫃員機將平等對待所有客戶,除非程序另有規定。然而,編寫這些系統時,人們並不善於避免偏見。因為人工智慧訓練數據中存在偏差的風險,所以我強烈反對預測性警務。

人類的缺陷已經明顯反映在我們的數字化的後代身上。有缺陷的數據集輸入到機器學習中將有可能產生人工智慧怪獸,這並不是我們在看到人工智慧愈為普遍的情況下對廚房設備的賭博。即使沒有變得更先進,這些問題也會以更多可能看不到的方式放大和顯現。

隨著人工智慧的發展,我們冒險使用超級智能,美國南部一名為三個字母的組織對其存在潛在偏見。而現在,無論是食品攪拌機還是人工智慧聊天系統,都存在著同樣的低風險,即從牆上拔下插頭,並稱自己是上帝,這可能會發生改變。在複雜性上,人工智慧似乎註定要從狹義人工智慧發展到泛人工智慧,甚至可能超越人類能力。

圖源:kkaoyanziliao.tuxi.

我們已經大致看到了聰明的人工智慧

像強化學習這樣的人工智慧訓練技術已經創造出至少略為通用的人工智慧。強化學習包括告訴人工智慧一個目標,讓機器學習潛在重試數百萬次,以找到最佳改進方法。

2015年,谷歌DeepMind使用強化學習訓練人工智慧玩49款Atari電子遊戲;該機器在大多數遊戲中都擊敗了人類玩家。幾年後,在2019年,OpenAI發布了一項教人工智慧捉迷藏的強化學習項目。兩種人工智慧就像生物有機體一樣,都是通過實踐進行學習。請觀看OpenAI隨項目一起發布的視頻,以更好了解其工作原理。

這些例子很難達到人類智力水平,但它們也不是計算器。這些人工智慧可以正常運行,並且只需很少的編程即可學習。有了自學軟體,就有可能創造出擁有超凡智力的人工智慧,並教會其一些未知的偏見。

人工智慧會變成神一般的偏執狂嗎?

圖源:k.sina

在一個臭名昭著的TED演講中,神經科學家Sam Harris(山姆·哈里斯)認為,只要有足夠時間,一個普遍的智能、自我學習以及擁有自我意識的人工智慧也許不可避免。他認為,即使沒有摩爾定律的延續或爆炸性的進展,這也是事實。在物理系統智能中,哈里斯的理由是信息處理與時間的問題。他在足夠長的時間線內爭論,除非被打斷,否則人工超級智能幾乎可以保證。

你也許可以駁回哈里斯的此類主張。可是你很難忽視Stuart Russell(斯圖爾特·拉塞爾)的觀點,他是加州大學伯克利分校人類兼容人工智慧中心的負責人,他認為人工智慧對人類構成了真正的風險。

拉塞爾有多擔心?如果你一直看到電影《殺戮機器人》的結尾,你會看到斯圖爾特·拉塞爾的一條信息,解釋道這部電影不僅僅是猜測。他說這部電影描繪了已經存在的技術整合與小型化的結果。他的擔憂得到70%人工智慧專家的信任。

雖然拉塞爾的確表達了對神一般的人工智慧的恐懼,但他似乎也對我們現在擁有的非智能狹義人工智慧系統持謹慎態度。拉塞爾希望人工智慧研究的重點從追求純粹的智能,轉向符合人類價值觀的智能。顯然,由於相對同質的價值觀,人類可以對一個簡單的任務表達*諷刺警覺*。

即使是「弱」人工智慧也已經強大得令人不安

相對簡單的人工智慧,比如YouTube的系統對視頻加以停止傳播和刪除的標記,這就顯示出了一種偏見,而且很可能是在沒有人類知識的情況下引入和實施的。如果一個人給機器人一份關鍵詞列表用於標記,就有可能看到YouTube是否存在偏見。但是,如果把決定權交給人工智慧,演算法就必須進行反向運行,甚至進行指責。這才是人工智慧的真正威脅。

無聲人工智慧已經被用於批准貸款、住房和篩選求職者。人工智慧甚至被用來計算某人可能需要支付的保釋金。在日常生活中,許多人接收的新聞是由演算法決定的。甚至我們的研究方式在某種程度上也是由自學的人工智慧決定的。如果在谷歌工作的人能充分解釋搜索引擎實際如何對頁面進行排名,我會感到震驚。

狹義人工智慧已經是神了嗎?

圖源:dianjintoutiao

科幻小說中的「人工超級智能」的概念確實令人毛骨悚然,而且可能會實現。但是,如果人類來自一個神一般的偏執狂,終結者或者一群虎鯨,這有關係嗎?結果是一樣的。

「魔鬼實施的最大詭計是讓世界相信他不存在。」——《非常嫌疑犯》

人工智慧已經存在,雖然它似乎還沒有達到泛智能(更不用說超級)的水平,但人工智慧已經是眾多問題的一個根源,並且可能會導致更多的問題。Facebook、YouTube、Google和許多其他大多數人每天使用的工具,部分是由狹義人工智慧運行的,它們決定人類看到的內容。

當然,YouTube人工智慧不應該被指責為「激進主義」的人。儘管任何關於2016年美國總統選舉期間在Facebook上傳播的假新聞有多大影響力的討論都會迅速變得兩極分化,但Facebook的人工智慧可能並沒有改變結果。然而,大多數人同意這些平台會產生回聲室效應,人們不知道他們看到的是如何決定的。

這項技術是我們日常生活中不可或缺的一部分,我們還沒有很好地理解它,甚至可能構建這些工具的團隊也沒有完全理解。人類正在失去對人工智慧的控制,或者說人工智慧正在獲得對人類的控制?

C.S. Lewis《地獄來鴻》一書可概括為:一個魔鬼建議他的侄子分三步引誘人類:

1. 分散人類注意力。

2. 讓人類互相爭鬥。

3. 讓人類認為你不存在。

如果一個具有神聖智慧的人工智慧控制著世界,想要實現人類的末日;它的行為會不會與我們現在擁有的弱人工智慧和簡單的自動化有什麼不同?

這是一個值得大家去深刻思考的問題……

留言點贊關注

我們一起分享AI學習與發展的乾貨

如轉載,請後台留言,遵守轉載規範

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!


請您繼續閱讀更多來自 偏執狂 的精彩文章:

現言寵文:男主強大腹黑偏執狂,女主軟萌逗比小可愛,強勢寵
《卓有成效的管理者》最智慧的十句話,成大事的人,都是偏執狂