當前位置:
首頁 > 最新 > AI已成「潘多拉的盒子」?撬開人工智慧的黑箱

AI已成「潘多拉的盒子」?撬開人工智慧的黑箱

人工智慧的應用普及帶來了希望,但也可能出現一種令人擔憂的前景:深度學習技術讓AI愈來愈像懂得自學的人腦神經網路,由此形成高效的自我進化閉環,並以人們無法理解的方式運行。如何破解人工智慧的「黑箱」,一探AI的「頭腦」?

隨著深度學習技術(名為「神經網路」的專用電腦程序處理大量數據以尋找並記住其中的模式)的誕生,人工智慧給人的印象是越來越「聰慧」。從語音轉錄文字到檢測早期失明症兆,各種智能應用應有盡有。如今AI已被用於控制工廠的質檢程序和數據中心的冷卻系統。政府希望運用AI打擊恐怖主義,AI也是自動駕駛汽車研發的核心所在。在全球市值最高的十大上市公司中,有七家表示已計劃將基於深度學習的AI技術作為核心。

希望的背面也有恐懼。最令人害怕的不是AI設備不聽指揮「變壞」,而是它雖然聽從指令或至少嘗試服從指令,卻是以一種人們無法理解的方式執行。造成這種恐懼的原因是深度學習程序的運作模式:演算法在處理的數據中發現模式,據此重組自身的數字結構,從而完成學習過程。具體來說,這些程序是模擬神經科學家所認為的人腦學習機制——程序內的計算機代碼就如同大腦的神經元,程序就是通過改變這些代碼的連接強度來學習的。這意味著一套神經網路受訓後,連它的設計者也無法了解其行事方式。因此,如果允許這些智能代理來管理關鍵基礎設施或做出醫療決策,就相當於把人命付託給了一套沒人真正了解其運作方式的「黑箱」設備。

但如果AI代理能以某種方式解釋自己運作的原因或動機,不但會增進人們對它們的信任,它們本身也會變得更有用。而且萬一出現問題,它們對自身行動的解釋對後續調查也會大有助益。在更簡單的層面,這種自我解釋的能力是軟體工程師希望在現實AI中效仿的。

如何打開AI的黑箱?歡迎訂閱商論閱讀《無法檢驗的思維》了解以下問題:

美國國防部高級研究計劃局(DARPA)開展的「可解釋AI項目」(XAI)是最早試圖打開AI「黑箱」的正式研究之一

加州大學伯克利分校的AI團隊藉助經過訓練的神經網路相互觀察,解釋AI系統的判斷思路

這些方法能在一定程度上打開AI黑箱,但頂多也就能達到人類能達到的解釋水平。在大數據和複雜系統研究領域,AI的能力已遠超人類

一些工程師正從人類探秘大腦的方法中尋找靈感,比如認知心理學:DeepMind開展的研究就是一例

AI應用中的許多判斷可以稱為 「人工直覺」——最好的例子是AlphaGo有時會走出人類高手無法解釋的怪著,類似人類大師的 「神之一手」

擁有了自我「動機」的AI也可能引發棘手的法律問題

*如需轉載文章,請私信後台「轉載」聯繫我們

跟《經濟學人·商論》一起聽·懂世界

現訂閱全年更有福利二選一

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 經濟學人 的精彩文章:

誰會是拍在沙灘上的大白鯊?
中美科技界正面對決,用不了十年

TAG:經濟學人 |