當前位置:
首頁 > 最新 > 打破人工智慧演算法黑箱

打破人工智慧演算法黑箱

AlphaGo戰勝了人類頂尖圍棋選手,無人駕駛汽車開始在公路上運行,擅長聊天的機器人可以成為你的朋友,人工智慧離我們越來越近,帶來很多希望的同時也引起了不少的憂慮和質疑,因為讓人摸不透的複雜演算法就像是一個黑箱。那麼這個黑箱究竟應不應該被打破?又該如何打破呢?


人工智慧的挑戰已經到來

今天各類人工智慧相關係統以深度學習演算法為突出代表,憑藉當今計算機系統及雲計算平台提供的強大計算能力,以及欣欣向榮的傳統和移動互聯網、物聯網所帶來的日益豐富多樣的數據資源,為人們提供了一幅可信的發展圖景,相應的演算法已在許多領域付諸使用,引起了無限熱情期盼,也帶來了眾多質疑和擔憂。

無論期盼或是擔憂,我們都正在見證著一個新的信息時代的開啟。在這個時代,許多讓我們一時還琢磨不透的人工智慧演算法,在進行著認知、學習、預測和決策,可能為我們提供醫療、法律、金融等方面的建議或決策,也可能直接操控汽車、無人機,甚至大規模殺傷性武器。如果回顧信息技術的發展歷程,我們有理由相信,這一次技術創新和應用推廣的發展速度也許會超乎我們的想像。

人們常說,法律總是滯後於社會發展。面對互聯網技術帶來的社會影響,我們剛剛建立起有一定體系的理論和規範,人工智慧的挑戰就已經到來。這一次,在政府、產業、資本和學術界的共力之下,面對人工智慧可能帶來的巨大社會影響,恐怕並無太多時間留給法律和政策制定者來慢慢觀察和考量。


在時下熱議的人工智慧相關倫理、演算法歧視、演算法正確性、安全性等問題中,有一個問題被時常提起,即以深度學習演算法為代表的人工智慧演算法的可解釋性問題。

人類理性的發展歷程使我們相信,如果一個判斷或決策是可以被解釋的,我們將更容易了解其優點與不足,更容易評估其風險,知道其在多大程度上、在怎樣的場合中可以被信賴,以及我們可以從哪些方面對其進行不斷改善,以盡量增進共識、減少風險,推動相應領域的不斷發展。這樣的思維範式或許是誕生在人工智慧時代之前的稍顯過時的思維模式。

美國計算機協會美國公共政策委員會也在2017年初發布了《關於演算法透明性和可問責性的聲明》(Statement on Algorithmic Transparency and Accountability),提出了七項基本原則,其中之一即為「解釋:鼓勵使用演算法決策的系統和機構對演算法過程和特定決策提供解釋。這在公共政策中尤為重要」。

機器學習是人工智慧的一種途徑或子集,它強調「學習」而不是計算機程序,

一個系統可以從自身的錯誤中學習來提高它的模式識別能力。

這些看法認為增強人工智慧演算法的可解釋性具有積極意義,但是,增強可解釋性是否是可能的呢?

誠然,以深度學習為代表的人工智慧演算法經常被描述成一個無人理解的黑箱。但正如萊西格(Lawrence Lessig)教授在其經典著作《Code 2.0:網路空間中的法律》中所反覆強調的,當前技術本身是怎樣,並不等同於技術必須是怎樣。實際上人工智慧演算法的輸出仍然是由數據和代碼決定的,並不會比自然現象更難以分析和解釋,更何況其設計者還可以通過一些機制從內部增強其可解釋性。

一方面,人們可以研究如何更好地從觀察的角度來解釋人工智慧演算法。我們至少可以將人工智慧演算法作為一個客觀事物來進行觀察、實驗和分析。

例如,我們可以通過觀察演算法對於不同輸入所產生的輸出,來嘗試了解其規律。更進一步地,對於比較複雜的人工智慧演算法系統,人們也可以通過搭建一套自動測試分析系統來進行輔助分析。

其實法學界就有研究者進行過初步的相關研究。例如,新加坡國立大學法學院的Seng Kiat Boon教授在斯坦福大學學習期間做了一個有意思的研究工作,針對網路上侵犯知識產權內容的「通知-刪除」規則的自動處理系統進行了分析。

在現在的技術背景下,很多知識產權人及各類維權代理機構會藉助一定的技術手段,讓軟體自動檢測網路上的侵權內容,並自動向網路平台發送發現侵權內容、要求刪除的通知;面對每天接收到的大量侵權通知,很多平台已經從主要依靠人工受理轉變為利用演算法來自動處理。

Seng教授採用一些基本的技術方法,從網上資源庫中收集和分析了超過50萬個「通知-刪除」實例,來剖析谷歌等平台的「通知-刪除」自動處理系統的特性3。當然,這個例子中只是運用了簡單的技術手段,但相信未來的一個方向是,人們可以用信息技術來解析信息技術,用演算法來輔助理解演算法。

在這一方面,除了系統設計者自身,社會上的相關用戶、研究者以及新聞記者都可能進行相關分析研究。分析能力和分析條件的提高也將是問題研究、社會監督的重要支撐。

另一方面,可以研究如何更好地設計兼顧可解釋性的演算法和系統。在傳統軟體錯誤檢測實踐方面,軟體工程師們可能通過在演算法中加入特定調試語句來記錄調試信息,或者在編譯程序時編譯為調試模式,幫助自己或其他軟體工程師理解程序代碼執行的情況、各個關鍵變數的變化情況,等等,從而幫助定位演算法錯誤。很多計算機硬體也提供一定的調試支持。

在設計人工智慧演算法和系統時,也同樣可以加入一些增強可解釋性的模塊,並利用人工或機器輔助來進行解釋。《對人工智慧系統挑戰的伯克利觀點》一文中,加州伯克利大學的研究者們就提出,支持可解釋決策的一個要素是人工智慧系統能夠記錄和忠實重現導致特定決策結果的計算過程。

由此,應該來研究能夠支持互動式診斷分析的人工智慧系統,忠實重現過去的執行情況,幫助確定輸入中的哪些特徵導致了特定結果,並在可能的情況下為因果推理提供系統支持。

當然,這樣的方式可能導致演算法運行速度的降低,甚至一些輔助機制可能影響演算法的精確度。因此,研究者們需要在這一領域深耕細作,不斷提出在可解釋性和演算法效率等方面均令人滿意的方案。


那麼,我們可以如何來促進支撐演算法可解釋性的相關研究呢?

研究者的興趣自然是一項重要動力。除此之外,政府的鼓勵和支持、行業的倫理和規範、市場的需求以及相關知識產權帶來的激勵、法律法規的要求等,都可能成為激勵演算法可解釋性相關研究的措施。

如果我們把目光投向軟體正確性驗證及安全性保障領域,可以看到,儘管有研究興趣、一定的市場需求和知識產權的激勵,而且在測試方法等方面確實不斷有新的研究,但相應的研究開展程度遠不及信息技術的其他很多領域。

一方面這可能由於問題本身的困難性,另一方面也反映出僅憑研究興趣和簡單的市場和知識產權激勵,並不足以推動其充分發展。對於消費類軟體的錯誤、漏洞,人們已司空見慣;時不時的系統崩潰,大家也都習以為常。

可是,消費類軟體中的錯誤或許並不會引起過多的問題和嚴重損害,但在當前及未來的一些關鍵領域和情境下,人工智慧系統卻可能影響人的基本權利、自由和生命安全。

由此,在既有激勵的基礎上,我們有必要通過行業的倫理規範和標準、政府的鼓勵和支持、適當的法律責任分配以及監管機制等多種途徑,來加強對人工智慧演算法可解釋性的研究和應用推廣。

演算法的可解釋性是我們更好地掌握和控制人工智慧的基礎。美國華盛頓大學法學院的Ryan Calo曾提出,跨學科實用主義的傳統或許是網路法最偉大的遺產4。

在信息技術高速發展的今天,法律和政策研究者除了將目光投向其宏觀特性,也應該對相應的變化有所了解,並進行積極影響,使其更好地服務於我們的社會,推進人類追求的美好價值的實現。

如涉及版權等問題,請及時與我們聯繫,我們將在第一時間處理。

中華機器人超市-線上線下體化機器人交易平台,提供機器人廠商、產品、展會、招商、人才、投融資等全方位的服務。


喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 機器人指南 的精彩文章:

谷歌與美國國防部:利用AI分析無人機視頻
神奇AI「讀心術」當心你的想法它都知道!

TAG:機器人指南 |