當前位置:
首頁 > 新聞 > AI透明度引發關注,科技巨頭推工具解釋演算法決策過程

AI透明度引發關注,科技巨頭推工具解釋演算法決策過程

人工智慧技術的透明度和道德倫理問題,正引發越來越多的關注,這促使雲計算服務提供商推出新工具,解釋人工智慧演算法背後的決策過程。

會計和金融等強監管行業的高管表示,數據科學家和非技術業務經理都必須能理解演算法決策背後的流程,這至關重要。這樣的理解在防範潛在道德違規和監管違規方面可能會帶來深遠影響,尤其考慮到企業級人工智慧演算法正變得越來越普遍。

畢馬威創新和企業解決方案部門負責智能自動化、認知和人工智慧的高管維諾德·斯瓦米納桑(Vinodh Swaminathan)表示:「我認為,除非具備這種解釋能力,否則人工智慧在企業中的規模不可能超過數百個試點應用。」

對人工智慧的解釋問題已經促使IBM和谷歌等公司在雲計算人工智慧服務產品中引入透明度和道德倫理工具。比如,IBM商業價值研究所近期的一項研究調查了5000名企業高管。約60%的受訪者表示,他們關心如何解釋人工智慧使用數據作出決策,以達到監管和合規標準。這個比例較2016年時的29%大幅上升。

甚至對數據科學家和相關企業高管來說,人工智慧的決策過程有時都是「黑盒」。在深度學習工具,例如用於模式識別的神經網路中尤其如此。這樣的神經網路試圖模擬人腦的運轉方式。儘管這些系統可以以前所未有的準確率和速度得出結論,但外界並不總是非常清楚,計算網路是如何做出具體的決策。

畢馬威內部的數據科學家正在開發自主的可解釋性工具,此外該公司也在利用IBM新的透明度工具。斯瓦米納桑表示,這樣做的目的是確保技術和業務兩方面的員工都能「打開黑盒」,準確地了解人工智慧演算法是如何做出結論的。

IBM上周發布了新的雲計算人工智慧工具,可以向用戶展示哪些主要因素影響了人工智慧做出的建議。這些工具還可以實時分析人工智慧決策,以識別固有偏見,並推薦數據和方法來解決這些偏見。IBM負責認知解決方案的高級副總裁大衛·肯尼(David Kenny)表示,這些工具可以與IBM人工智慧服務,以及谷歌等其他雲計算服務提供商的工具配合使用。

谷歌研究科學家和軟體工程師發布的博文則顯示,谷歌去年開始為開源的機器學習代碼發布新工具,「作為更廣泛研究的一部分,滿足對可解釋性的政策目標」。谷歌本月早些時候發布的另一款人工智慧工具允許非程序員檢查和調試機器學習系統,以評估演算法的公平性。

微軟正通過Azure來提供人工智慧服務。該公司發言人表示,人工智慧系統的設計需要有公平、透明和安全的保護,從而確保信任。微軟正在這方面做出持續的努力。亞馬遜沒有對此問題做出回應。

來自強監管金融行業的Capital One Financial Corp和美國銀行正在研究,如何解釋人工智慧演算法得出答案的背後原理。兩家公司都表示,目標是利用人工智慧來優化對欺詐的監測,但首先它們需要了解這些演算法是如何工作的。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 人工智慧觀察 的精彩文章:

亞馬遜第三家無人店來了,終於開出了西雅圖
神經網路可以被劫持?谷歌大腦研究員演示AI黑客行為

TAG:人工智慧觀察 |