當前位置:
首頁 > 新聞 > 如何建立人類能夠信賴的AI?

如何建立人類能夠信賴的AI?

提到人工智慧,相信《西部世界》里的故事,讓人記憶難忘:

由一座巨型高科技以西部世界為主題的成人樂園,提供給遊客殺戮與性慾的滿足。而當夜幕降臨,所有機器人的記憶被清除,一切歸零,第二天太陽升起,新一批遊客入園。隨著接待員有了自主意識和思維,他們開始懷疑這個世界的本質,進而覺醒並反抗人類。

這部關注度極高的美劇中,人類和機器人之間的關係往往是引起觀眾最多思考的部分。作為一個人工智慧領域的從業者,我也經常被問到這個問題「Hey,《西部世界》成為現實還要多久?」


如何建立人類能夠信賴的AI?

打開今日頭條,查看更多精彩圖片


換言之,人和AI如何才能建立起一種信任?我相信像我一樣的研究人員們有必要承擔起責任,將人工智慧引導到正確的發展道路上。正因為如此,我將在下文當中對承擔這方面責任的具體原因展開探討。

以信任為基礎進行設計

要信任一套人工智慧系統,我們必須對其決策充滿信心。我們需要了解某一決策是可靠且公平的,相關結論可以進行解釋,並不致造成傷害。我們需要保證決策結論不會被篡改,且系統本身安全可靠。

可靠性、公平性、可解釋性、穩健性以及安全性是構成可信人工智慧的基礎。然而,隨著我們不斷開發出新的人工智慧系統與技術,我們用於對其進行評估的指標仍然主要集中在測試/訓練準確率、交叉驗證以及成本/效益比等方面。『

我們會對使用情況與實時效能進行監控,但卻沒有針對信任問題進行設計、評估與監控。要實現這一目標,我們必須首先將可信人工智慧這一維度定義為科學目標,而後制定工具與方法,最終將其整合至人工智慧解決方案的開發流程當中。

我們必須在準確率之外,立足更多維度對系統的效能進行衡量與報告。下面,我們將進一步探討這套新的、用於建立人工智慧信任體系的「工具包」中的四大主要組成部分:

1.公平


人工智慧系統的偏見問題近來在技術界與公眾當中引起了極大關注。如果我們希望鼓勵人工智慧技術的推廣,那麼首先需要確保其不會更加廣泛地散布本已存在於部分群體當中的偏見與衝突思維。 技術研究社區在理解偏見對於人工智慧決策的影響方面取得了可喜的進展,且正在創建能夠檢測並緩解人工智慧應用生命周期之內偏見問題的方法,具體包括訓練模型,檢查偏見性數據、演算法與服務,並在檢測到時處理偏見。雖然還有很多工作要做,但在人工智慧解決方案的設計、測試、評估與部署層面,我們已經能夠逐漸採用一系列原則實現偏見的檢查與緩解。


2. 穩健性


對於大型數據集,神經網路已經成為人工智慧開發人員與數據科學家們的首選工具。雖然深度學習模型能夠表現出超越人類的分類與識別能力,但只要添加少量干擾因素(通常是人類所無法察覺的),這些模型往往很容易受到愚弄並做出錯誤的決策。

事實上,技術社區已經投入了相當長的時間對軟體系統中暴露出的漏洞進行修復,而其也希望把同樣的能力引入人工智慧領域。

最近,這一領域湧現出大量研究成果:不斷出現新的攻擊與防禦機制; 快速發展的新型對抗性訓練方法旨在加強攻擊應對能力; 以及用於評估系統穩健性的新型衡量標準等等。我們正在接近歷史發展的拐點,並將上述成本整合至通用型AI DevOps流程當中,藉以保護並捍衛以此為基礎構建而成的生產級神經網路與應用程序。


3. 對演算法決策做出解釋


最近討論熱度極高的另一個重要問題,在於擔心機器學習系統成為另一種「黑匣子」。這種擔憂並非杞人憂天,事實證明多種最為先進的演算法確實會生成難以解釋的決策結論。

目前不少最新研究工作提出了一些技術方案,能夠在不影響準確率的前提下為黑匣子模型提供可解釋性。其中具體包括模型的局部及全局可解釋性技術與預測技術,可產生可解釋模型的訓練技術,可視化神經網路中的信息流捕捉乃至解釋能夠傳授等方法。

我們必須將這些技術整合至人工智慧模型開發與DevOps工作流程當中,從而為開發人員、企業工程師、用戶以及各領域專家提供必要的解釋性信息。


4. 安全性


人類對於技術的信任,源自我們對其工作原理的了解以及我們對其安全性與可靠性水平的評估。當我們踩下踏板時,我們相信汽車的制動器一定能夠發揮作用。而在對眼睛進行激光手術時,我們也相信系統會做出正確的決定與操作。

在這兩種情況下,由於系統訓練、詳盡測試、經驗、安全措施與標準、最佳實踐以及消費者教育等工作的普及,人們已經建立起系統不會犯錯的充分信心。事實上,其中不少安全設計原則也同樣適用於人工智慧系統的設計; 當然,其中一部分需要進行調整,也有不少需要進行重新定義。

舉例來說,如何在複雜的環境中遇到前所未有的情況,我們可以將人工智慧設計為需要人為干預。此外,正如我們會使用藥品與食品安全標籤或者在計算機硬體中添加安全數據表一樣,行業也有可能利用類似的方法對人工智慧服務或者解決方案的功能與限制做出明確要求。

以敏捷且開放的方式開發人工智慧

每當有新技術出現時,都會帶來新的挑戰、安全問題以及潛在風險。不過隨著技術的發展與成熟,這些問題都將逐步得到理解與解決。

舉例來說,在藥品剛剛誕生在世界上時,還沒有任何安全測試、質量標準、兒童防護設計或者防調換包裝等事物。人工智慧作為一項新的技術,自然也需要經歷類似的演變。

最近幾年以來,人工智慧的技術能力取得了非凡的進步,旨在開發出更好、更強大的人工智慧方案的競賽正如火如荼地進行當中。然而,我們的努力不應僅僅投入到創建令人印象深刻的人工智慧演示身上,而應在提升其智能化水平的同時,強調其為自身決策負責的能力。

在我們的探索過程當中,相信人工智慧技術領域的研究人員、工程師以及設計師應該與來自各個學科的用戶、利益相關者以及專家開展合作,確保了解他們的需求,據此不斷評估演算法決策帶來的影響、分享調查結果及見解,同時以開放及敏捷的方式主動解決問題。在我們的共同努力之下,相信人工智慧解決方案將在用戶當中建立起愈發深厚的可靠性與信任感。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 科技行者 的精彩文章:

區塊鏈技術有哪些能商用的企業級應用?
麻省理工學院公布AI神器,可以判斷人類是否有抑鬱症

TAG:科技行者 |