當前位置:
首頁 > 新聞 > 人工智慧,你欠我們一個解釋

人工智慧,你欠我們一個解釋

智造觀點

儘管人工智慧發展迅速,但還是沒能獲得所有人的信任,原因之一就在於它在做出決策方面缺乏可解釋性。正是因為人們無法理解人工智慧是如何做到這一切的,所以它在法律、醫療健康以及處理敏感客戶數據的企業中的部署也受到了影響。特別是在最近數據保護法規(如GDPR)不斷頒出的背景下,了解數據是如何處理以及AI如何做出某種決定至關重要。

文/未末末

來源/人工智慧觀察(ID:Aiobservation)

人工智慧出現以後,似乎正在逐步滲透到我們生活中的每個角落,其中不乏它為我們做出了一些非常重要的決定,比如,身體里的腫瘤是不是已經發生癌變;是否應該同意或拒絕保險索賠;旅客是不是應該被批准通過機場安檢,甚至是否授權導彈發射以及是否批准自動駕駛汽車的制動,等等。

這些決定為醫生、企業、機場、國家以及司機都帶來了很大的方便,但也存在很大的問題:人工智慧是如何做出這些決定的?很多科技巨頭都進行過相應的研究,結果發現這一過程充滿了複雜性,並且也不能被很好地解釋出來。

然而,無論是出於合規性的原因還是為了消除偏見,了解人工智慧決策制定能力從何而來是很必要的,這也就意味著,我們需要可解釋的AI(Explainable AI,XAI)或者說透明的AI(Transparent AI )。以社交媒體和醫療健康領域為例,可解釋的AI對其發展有重要意義,不過,說起來容易做起來難。

Twitter :可解釋AI有助於平台的良好運行

本月早些時候美國參議院情報委員會召開聽證會,圍繞社交媒體存在的諸多問題進行討論。Twitter首席執行官傑克·多西(Jack Dorsey)代表公司出席,期間他被要求為其平台造成的文化破壞以及政治影響負責。

多西說話輕聲細語的,這與Facebook首席執行官馬克·扎克伯格(Mark Zuckerberg)形成了鮮明的對比,後者在今年4月出席國會聽證會的時候似乎更有信心。聽證會期間,有代表不斷向多西發問,包括Twitter的演算法是否可以從他們所做的決策中學習,比如,建議用戶去關注誰的Twitter、哪些推文會被置頂、哪些賬戶會因為違反平台服務規定而被禁止,更重要的是,多西是否能對這一切是如何運作的,做出解釋。

對此,多西表示,「這是一個好問題。」然後他便引用了「可解釋的AI」這一術語,按照他的說法,Twitter目前正在對此進行投資研究,只不過還處於早期階段。但多西在聽證會上也沒有進行進一步的解釋。不過,這並不是他第一次提到人工智慧的解釋能力。今年8月,他在接受福布斯的採訪時,也稱,「我們需要做更多的工作來解釋我們的演算法是如何運行的,最好是能把它們打開,這樣人們就知道AI是如何工作的了。

不過,多西也表示,這不容做到,儘管在人工智慧領域對人工智慧的可解釋性有一個完整的研究,試圖理解演算法在某個標準下是如何做出決定的。

IBM Watson:可解釋AI更受醫生信任

對於醫療領域的人工智慧應用已經屢見不鮮,IBM Watson作為「開山鼻祖」,特別是Watson for Oncology在其發展過程中也經歷了各種「痛苦」,但總的來說,人工智慧的黑匣子問題是關鍵,即如果人們不知道AI是如何做出決定的,那麼就不會相信它

對此,谷歌用戶體驗研究員兼Avantgarde Analytics創始人Vyacheslav Polonski表示,「IBM試圖將其超級計算機程序Watson for Oncology推廣給腫瘤醫生是一場公關失敗,因為關鍵原因在於醫生根本不相信它。」具體來說,當Watson的結果與醫生的結論相一致時,會得到醫生的認可,但並沒有達到幫助診斷的層面。但當二者結論不統一時,醫生們只會認為IBM Watson的結果是錯誤的

不過,如果醫生知道它的結論如何得出的,結果可能會有所不同。「人工智慧的決策過程通常對大多數人來說太難理解,」Polonski表示。「與我們不理解的事物互動會讓人引起焦慮,讓我們有種失控感。」因此,如果腫瘤醫生已經了解了Watson是如何獲得答案的,也就是具有了可解釋性,那麼醫生的信任程度會更高。、

可解釋的AI究竟是什麼?

隨著人工智慧驅動的系統越來越多的做出決定,人類對其如何做出決策的理解顯得至關重要。簡單來說,可解釋的AI是一個概念,其中涉及到人工智慧和其決策是如何對用戶透明的,儘管這只是一個定義。從歷史的角度看,人工智慧最常見的發展史黑匣子路線:人類輸入「成本」,人工智慧輸出結果,中間的過程一直在被研究但卻從未完全或準確的做出過解釋。

在某些情況下,可解釋的AI可能是不必要的,比如理解為什麼亞馬遜會為你推薦某一部電影或某個商品,因為這與個人興趣愛好有關,是否觀看或購買需要個人再下決定。但是在某些情況下,像關於醫療健康以及司法系統等領域,解讀人工智慧給出的決策時,了解演算法的行為就很重要

演算法時代,我們已經目睹了很多決策過程中演算法使用的爆炸式增長,卻未能很好的處理其「適得其反」的結果,Facebook的劍橋分析事件就是一個很好的例子。所以很多科技巨頭都同意「更好的為其演算法的工作方式作出解釋」,同時,這也是保證他們在釋放AI數據之前能高枕無憂的完美解決方案。

在這種情況下,不管是政府機構還是企業巨頭,都在努力投資可解釋的AI試圖改變這一情況。

美國國防部投資XAI,為其開發工具包

據了解,美國國防部(DoD)正在投資可解釋的人工智慧,以探索可以使自助系統對其行為進行更好的解釋的技術。國防高級研究計劃局(DARPA)已經確定在自主系統向分析師提供有關可疑活動的信息或需要進一步檢查的情況下,分析人員有必要讓自主系統解釋為什麼要執行例如將特定照片、數據或特定的人帶給分析人員這樣的行為。

按照DARPA的設想,XAI的目標是「產生更多可解釋的模型,同時保持高水平的學習表現(預測準確性);使人類用戶理解、適當、信任和有效地管理新一代人工智慧合作夥伴」。

「可解釋的人工智慧——特別是可解釋的機器學習——如果未來的戰士要了解,適當信任並有效管理新一代人工智慧機器合作夥伴,將是必不可少的,」國防高級研究計劃局項目經理David Gunning解釋道。「新的機器學習系統將能夠解釋他們的理由,描述他們的優勢和劣勢,並傳達他們對未來行為的理解。」

IBM推出雲服務,檢測並減少AI偏差

深知可解釋AI重要性的IBM,在此領域的研發也不會落下。本周三,IBM推出了一項提高人工智慧透明度的技術,使企業能夠更全面地駕馭人工智慧的力量

具體來說,這一基於IBM雲計算的軟體服務,能夠在人工智慧進行決策時自動檢測偏向性並能夠對決策過程進行解釋,從而幫助各行各業的組織管理人工智慧系統。IBM服務部門也將與企業一同合作,幫助他們更好地利用這一全新的軟體服務。

此外,IBM研究院還將面向開源社區發布人工智慧偏向性檢測和糾偏控制工具包,旨在通過先進的工具和培訓促進全球協作,以進一步解決人工智慧偏見問題。

對此,IBM Watson AI總經理Beth Smith 表示:「IBM曾引領行業確立了開發新型人工智慧技術的信任原則和透明度原則,現在我們將這些原則付諸了實踐。任何有缺陷的決策都會給使用人工智慧的企業帶來極大的潛在風險,而我們為企業提供了提高透明度和加強控制的方法。」

另外,除了這個軟體服務,IBM還將向開源社區提供AI Fairness 360工具包,其中包括一系列新型演算法、代碼和教程的資源庫,可為專業學者、研究者和數據專家提供在構建和部署機器學習模型時整合偏向性檢測功能的工具和知識,讓那些對AI系統進行編程的人可以更深入的了解他們所建立程序的可靠性,並確信該模型是否可以經得起全面部署。

在此之前,IBM商業價值研究院的的一項調查結果表明,雖然有82%的企業正在考慮運用人工智慧,但有60%的企業都擔心責任問題,63%的企業都缺乏能夠可靠管理這種技術的內部人才。也就是說,人工智慧決策的可解釋性可以為管理人員提供他們在企業範圍內實施人工智慧戰略所需要的信心。

那可解釋的AI最後能成功嗎?在小智君看來(ID:Aiobservation)看來,或許不會有完美的解決方案出現,雖然可解釋的人工智慧是一個重要的思想領域,同時也有可能成為未來機器學習的核心,但隨著模型變得越來越複雜,確定簡單的、可解釋的規則就會變得越來越困難。這些規則主要描述為什麼一些人工智慧系統會按照它所做的方式對任何給定的輸入進行分類、組合、操作。反過來說,如果這些規則簡單易懂,是不是就意味著我們本不需要很複雜的學習系統呢?

(文中圖片來自網路)


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 人工智慧觀察 的精彩文章:

智能化AI:IBM新系統可自動選擇最佳人工智慧演算法
中科大再創世界紀錄,首次實現十八個量子比特糾纏

TAG:人工智慧觀察 |