當前位置:
首頁 > 天下 > 演算法黑箱,是潘多拉的盒子?演算法與信息

演算法黑箱,是潘多拉的盒子?演算法與信息

關鍵詞演算法

信息智能推薦演算法是人工智慧技術在信息傳播領域的應用,它極大地提高了信息的生產和傳播效率,帶來了傳播方式和傳播活動的深刻變革,同時也引發了監管部門和用戶對這一新技術運用中出現的演算法黑箱和信息繭房風險等多方面的關切和疑慮。

演算法黑箱,難道是潘多拉的盒子?我們如何實現演算法的透明化?

學界進行了持續研究分析,互聯網信息平台不斷探索問題的解決和風險的防控,推動智能推薦技術的優化創新,以期把握演算法的特點、價值和規律,促進人工智慧時代信息傳播的健康發展、安全發展

《社會科學報》於近期推送位元組跳動公共政策研究院「演算法促進人工智慧時代的信息傳播」系列三講,這是第二篇。歡迎各位讀者持續關注!

第一篇在這:演算法,信息時代社會價值弱化的罪魁?

原文 :《演算法促進人工智慧時代的信息傳播》

作者 |位元組跳動公共政策研究院 袁祥 王一

圖片 |網路

防範演算法黑箱的潛在風險,促進透明化

▌演算法黑箱有哪些潛在風險?

基於神經網路的深度學習,將抓取的數據分為數以千萬計的變數來自動加權計算,並輸出結果,對於其中極其複雜的計算過程,人們依據現有的科學知識和原理難以理解。因此,一些信息智能推薦演算法也可能產生演算法黑箱問題,這是信息傳播領域的新現象。由深度學習自動生成的演算法,不但對廣大普通用戶來說其中的很多細節難以理解,就是對專業的技術人員也難以分析和解釋。

由於智能演算法的不透明性,加之其實時動態的變化,可能使其在產生問題時難以及時被發現和監督,而演算法來自於社會上大數據的訓練,機器很容易習得既有的偏見,甚至滋生對輸出結果的惡意利用,將負面的效應放大。特別是類型化、標籤化是演算法設計中的一個重要思想,在「人以群分」中就很容易固化社會偏見,如基於性別、種族、年齡對職業發展能力、犯罪概率做出預測,經由演算法對社會「刻板印象」的清晰化和固化,就很容易對群體中的個體作出誤判和傷害。

例如,一些社交網路為了減少對用戶體驗的干擾,在一定階段內對信息流廣告的數量有所控制,在一定時期內只選取比較高端的廣告品牌,並基於智能演算法的分析只對高端用戶定推,這一做法還一度在網上成為網民的討論熱點,能看到推送廣告的以自己「高端」而自得,沒看到廣告的自嘲自己是「低端用戶」,還有自認為是高端用戶的人抱怨為什麼沒有看到廣告推送。

這雖然只是網民的自我調侃,但也反映了推薦演算法的分類思想可能帶來的一些偏差。相比之下,基於演算法的差別化定價就是一種價格歧視,這不限於實物商品,在信息付費、知識付費的時代,推薦演算法對內容產品的歧視性定價也可能發生。

▌演算法透明化何以可能?

人們擁有著對「可解釋性」的追求,歐盟《一般數據保護條例》就規定消費者有對自動化決策的「解釋權」,在某些條件下有權利不接受完全由人工智慧自動化系統做出的重大決定。難點是如何在現實場景中科學有效地實現。

演算法透明化作為一種可選方式被寄予希望,從當前國內外的實踐看,演算法原理的透明化比程序代碼的透明化更切實可行。智能生成的演算法代碼複雜難懂並動態變化,一般認為,公布後無助於消除社會的擔憂,副作用卻很明顯,如涉及企業的核心商業機密、損害企業知識產權,代碼可能被別有用心的人利用,開展危害社會和企業安全的活動。

演算法原理透明化不糾纏於代碼這一過程性的中間環節,體現了目標管理和結果導向的思想。雖然黑箱問題在信息傳播領域是新現象,但在其他領域古已有之。我國傳統的中醫診治和中醫藥就是典型的黑箱現象,古時候的大夫並不了解人體器官的內部細節,也不了解中草藥的化學成分和分子結構,但仍可通過自身的「望聞問切」和不同藥材的搭配,達到治病救人的目的。

防範演算法黑箱的潛在風險,促進演算法的透明化,需要目標設定的公平正義和公開透明,演算法原理科學以實現正確的目標,在有人工訓練的情況下,在社會價值指引下正確選取指標和行為特徵,避免產生系統性偏見和歧視。對演算法的輸出結果要形成信息平台、用戶、新聞媒體、專業機構、政府等內外部的監測體系,及時發現偏差並對演算法進行優化改進,防止演算法輸出落入「自證正確」的錯誤循環。同時,對演算法黑箱問題也可用人工智慧輔助分析等方式來探索,在這方面國外已有一些研究和嘗試,我們可以借鑒。

文章原載於社會科學報第1663期第2版,未經允許禁止轉載,文中內容僅代表作者觀點,不代表本報立場。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 社會科學報 的精彩文章:

「加速社會」時代,文學何去何從?
西田幾多郎:美的本質應該在何處尋求?

TAG:社會科學報 |