當前位置:
首頁 > 熱門 > 計算表明,控制超級智能人工智慧是不可能的

計算表明,控制超級智能人工智慧是不可能的

人工智慧顛覆人類的想法已經討論了幾十年,科學家們剛剛就我們是否有能力控制一台高級計算機超級智能做出了自己的判斷。答案呢?很遺憾,幾乎肯定是不可能的。

關鍵在於,要控制一個遠遠超出人類理解能力的超級智能,就需要對我們能夠分析的超級智能進行模擬。但如果我們不能理解它,就不可能建立這樣的模擬。

開展這項研究的科學家表示,如果我們不了解人工智慧將會出現的情景,那麼「不傷害人類」等規則就無法設定。一旦計算機系統的工作超出了程序員的能力範圍,我們就不能再設定限制了。

研究人員解釋道:「與那些打著『機器人倫理學』旗號的典型研究相比,超級智能帶來了一個從根本上不同的問題。這是因為超智能是多方面的,因此有可能調動各種資源,以實現人類可能無法理解的目標,更不用說控制了。」

該研究團隊的部分推理來自艾倫·圖靈(Alan Turing)在1936年提出的停頓問題。問題的核心是知道計算機程序是否會得出結論和答案(所以它會暫停),或者只是不停地循環試圖找到一個結論和答案。

正如圖靈通過一些聰明的數學證明的那樣,雖然我們可以知道對於某些特定程序,但從邏輯上講,不可能找到一種方法讓我們知道每一個可能編寫的潛在程序都是這樣的。 這使我們回到了AI領域,在超級智能狀態下,它可以將所有可能的計算機程序同時保存在內存中。

例如,任何旨在阻止人工智慧傷害人類和毀滅世界的程序,都可能得出結論(並停止),或不會。從數學上講,我們不可能絕對確定哪種情況,這意味著它是不可遏制的。

德國馬克斯·普朗克人類發展研究所的計算機科學家伊亞德·拉赫萬說:「實際上,這使得遏制演算法無法使用。」

研究人員說,除了教人工智慧一些道德準則並告訴它不要毀滅世界之外(沒有任何演算法能夠絕對肯定地做到這一點),另一種選擇是限制超級智能的能力。例如,它可能被切斷與部分互聯網或某些網路的連接。

這項新的研究也否定了這個觀點,認為這會限制人工智慧的應用範圍。理由是,如果我們不打算用它來解決超出人類理解範圍的問題,那為什麼還要創造它呢?

如果我們要推進人工智慧,我們甚至可能不知道什麼時候會有一個我們無法控制的超級智能到來,這就是它的不可理解性。這意味著我們需要開始問一些關於我們要去的方向的嚴肅問題。

馬克斯·普朗克人類發展研究所的計算機科學家曼紐爾·塞布瑞恩(Manuel Cebrian)說:「一台控制世界的超級智能機器聽起來像科幻小說。但現實中,已經有一些機器可以在程序員完全不了解它們是如何學習的情況下獨立執行某些重要任務。」

「因此,問題是,這是否會在某個時候變得無法控制,對人類來說是危險的。」

如果朋友們喜歡,敬請關注「知新了了」!

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!


請您繼續閱讀更多來自 知新了了 的精彩文章:

英國一家人在花園中發現了亨利八世時期的金幣
英特爾攜RealSense攝像頭進軍面部識別技術市場