當前位置:
首頁 > 新聞 > 讓智能模型「說人話」背後:AI可知論與不可知論的糾葛纏鬥

讓智能模型「說人話」背後:AI可知論與不可知論的糾葛纏鬥

更多精彩,敬請關注矽谷洞察官方網站(http://www.svinsight.com)

現如今人類對於AI的應用,就好像帶媽媽去外面的餐廳吃飯,媽媽們不光要吃,還總想弄明白這些菜是怎樣做成的。就如同神經網路越是高效,我們就越好奇黑箱里究竟發生了什麼。

一直以來我們對於AI可解釋性的追求可以被分為兩層,一是從技術角度探尋神經網路黑箱的運行機制;二是從社會角度將AI技術原理更多地解釋給各個行業。

雖然計算機科學家們一直沒有停止對神經網路黑箱突破的探索,但也有人曾經明確地表示過,追求可AI的可解釋性並不是什麼好主意。

去年年底,谷歌大腦負責人Geoff Hinton就曾在接受媒體採訪時說過若干「AI不可解釋」的理由。其中很重要的一點是,他認為大多數人也沒法很好的解釋自己做出一種決策的理由,如果強迫人類對自己的行為做出解釋,結果很可能就是讓人類說出違心的謊言。AI也是一樣,也許強行在AI演算法中加入可解釋性,得出的結果很可能只是一種「針對於解釋需求的答案」,並不能發揮出人們所期望的作用。他可以說是一位堅定的「AI不可知論」支持者。

讓AI模型說人話

不過在幾天前,喬治亞理工學院就推出了一種讓AI用人類語言解釋自己行為的模型。

整個模型的訓練過程,建立在一款「小青蛙過馬路」的古老遊戲上。遊戲中玩家要操控著小青蛙前後左右躲避來往車輛,成功到達馬路對岸。

喬治亞理工學院先是收集了大量的人類樣本,讓人類實驗員玩一遍遊戲,然後再回溯整個遊戲過程,解釋出自己的每一步動作有哪些意圖。例如向左走是想躲避開後方來車,向前跳躍是因為漂浮的荷葉剛好來到自己面前。

讓智能模型「說人話」背後:AI可知論與不可知論的糾葛纏鬥

這樣一來,可以將自然語言與遊戲控制結合在一起建立映射。將這一模型遷移到AI的訓練中,最終結果是AI在每進行一步動作時,都會用自然語言解釋出自己的意圖。

實驗者可以再根據四個維度對AI的行為和解釋進行評分,這四個維度分別是「信任(認為AI的這一步行動是正確的)」「人性化(認為這是人類採取的行動)」「理由充分(語言解釋和行為動作有相關性)」「可理解性(能看懂所給出的自然語言解釋)」。

由此以來,就可以對AI的遊戲能力和自我解釋能力進行共同的訓練。

喬治亞理工學院所研發的這一模型,為AI的可解釋性帶來不少全新角度的突破。

當AI進行錯誤決策時,我們可以清晰地看到AI究竟錯在哪了。比如在遊戲中小青蛙被路過的汽車撞死導致遊戲失敗,通過自然語言解釋,我們可以看到可能是AI沒有「想到」要躲避汽車而導致失敗,還是已經「想到」了,卻因想法和行為沒能成功匹配而導致失敗。在後期進行參數調整時可以更加有的放矢,明確地找到問題所在。

更重要的是,這一過程完全是由人類的自然語言所表達的,普通人也能看到並理解問題發生的整個過程。技術的可解釋權不再受信息科技知識基礎所限制,甚至可以讓更多人參與到AI訓練的過程中來。

AI可知論,是在開技術的倒車嗎?

但「小青蛙模型」並不能解決Geoff Hinton提到的「AI不可知論」的很多問題。

首先,讓人類描述自身行為,然後再將語言和行為建立對應關係的玩法適用度並不高。

在小青蛙過馬路這樣簡單的遊戲中,人類可以清晰明了地解釋自己行為。但換個場景,很多時候我們就像Geoff Hinton所說的,自己也說不清自己做出決策的原因。尤其在一些場景,例如行車時是撞到馬路上的動物還是撞到其他車輛,人們自身的選擇常常陷入道德困境不能統一,和AI的決策模式有著天然的差異,就無法形成語言解釋和行為之間的映射。

另一點則是,讓AI「自我解釋」這種行為,投入和產出比究竟如何?

我們知道自然語言處理是AI領域中一塊相當難啃的硬骨頭,如果「AI說人話」這種模式成為標配,結果恐怕就是讓所有領域的AI模型都要進行相關的訓練。也就是說,未來一家做智能客服產品的企業,為了AI的可解釋性,需要招聘NLP領域人才;但未來一家人臉識別產品的企業,為了AI的可解釋性,同樣也需要招聘NLP領域人才……NLP專業學子或成最大贏家。如此為AI產業帶來的巨大成本,又將怎樣被覆蓋呢?

世界在等待AI+X

在Geoff Hinton發表過那番「AI不可知論」後,有不少社會學專家進行了相關反駁。其中劍橋智能未來中心的研究員就提出,AI在事物效率上的提升和對於社會的影響,本來就不能分開討論,Geoff Hinton這樣的科學家,如果認為自己脫離了社會語境和政策語境,那麼很可能在研究過程的一開始就走錯了方向。

讓智能模型「說人話」背後:AI可知論與不可知論的糾葛纏鬥

其實AI的可知論和不可知論之間,最核心的問題就是「AI出現了問題該怎麼辦?」

不可知論者認為,當AI出現了問題,我們就應該像演算法訓練過程一樣,在發現問題後立刻進行針對性的訓練和矯正。

但可知論者認為,如果我們等到AI在現實場景中出現問題再進行改善,一切就已經晚了。當前的要務是讓更多社會角色參與到AI的研發過程中來,在廣泛的現實應用之間就能夠從多種角度發現問題。

正因如此,才會出現喬治亞理工學院這種「讓AI說人話」的項目出現。而在AI學會說人話之前,AI與人之間、AI專家與其他專家之間,仍然會呈現出嚴重的溝通斷層。在相當長的一段時間內,AI+X的跨領域人才,都將炙手可熱。

更多精彩,敬請關注矽谷洞察官方網站(http://www.svinsight.com)

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 矽谷密探 的精彩文章:

在未來,人工智慧或許會對你身體姿勢的秘密了如指掌
人工智慧現在可以改變醫療保健領域的三種方式 | 矽谷洞察

TAG:矽谷密探 |